데이터 엔지니어로 살아가기 135일째(카산드라) - 0713목요일
역시 꾸준한게 제일 어려운 것 같다...못해도 3일에 한번씩은 기록하고자 마음먹었는데 생각보다 쉽지 않다.
그래도 잊지말고 앞으로라도 꾸준히 써나가도록 하자.
최근에는 알파 환경에서 리얼환경처럼 데이터가 유입되도록 하는 작업을 진행했었다.
실제 데이터 파이프라인은 구축이 되어있었지만 알파환경에서는 작동하는 태그매니저들이 없기 때문에
데이터가 실제로 유입이되지 않고 있었고 데이터가 없어 spark job들에 대해서도 매번 테스트하기가 너무 힘들었다.
이럴거면 알파환경을 도대체 왜쓰는가? 서버비 아깝게...
그래서 실제 리얼 태그매니저들을 통해 들어오는 데이터의 일부를 rsync로 알파서버에 daily로 받아오게 하여
알파 수집서버로 api를 호출하도록 작업하였다.
요즘은 CustomTargeting 프로젝트를 진행하고 있다.
기획부터 시스템설계까지 진행을 하고 있고 구글의 빅쿼리를 모티베이션 삼아 진행하고 있다.
관심사 추출하는 로직과 기존 클러스터 환경상 java7로 스파크작업을 하는데 삽질을 많이 하고 있긴 하지만
스칼라로 작업을 할 때보다 map, flatmap 등 연산작업들의 내부 구현에 대해 좀더 자세히 배우고 있는 느낌이든다.
요즘은 일하는게 너무 재밌어서 시간가는 줄 모르고 일하는 것 같다.
일도 일이지만 데이터 처리하는 기술들에 대해 공부에 대한 욕심도 많이 생긴다.
너무 욕심부리지 말고 천천히 꾸준히 일도 공부도 운동도 열심히 하도록 하자~!
'Life > 개발자 칼럼' 카테고리의 다른 글
데이터 엔지니어로 살아가기 143일째(java spark, scala spark) (0) | 2017.07.22 |
---|---|
데이터 엔지니어로 살아가기 140일째(커스텀타겟팅) (0) | 2017.07.19 |
데이터 엔지니어로 살아가기 113일째(카산드라) (0) | 2017.06.22 |
데이터 엔지니어로 살아가기 112일째(분산환경 로깅) (0) | 2017.06.21 |
데이터 엔지니어로 살아가기 105일째(프로젝트 셋팅) (0) | 2017.06.13 |