현대오토에버의 해당 직무에 지원한 이유와 앞으로 현대오토에버에서 키워 나갈 커리어 계획을 작성해주시기 바랍니다. (최소 500자 ~ 최대 1000자)
•
관련 경험 살짝
•
경험이 왜 지원한 이유에 도움이 되는가?
•
이러한 경험에 기반한 or 현대 오토에버가 요구로 하는 직무에 기반한 커리어 계획
스토리텔링. 어떻게 분석에서 엔지니어링에서 개발까지 오게 되었는가?
분석을 통한 인사이트 창출 → 데이터 엔지니어링 지식 추가 → 사용자 가치 창출을 위한 데이터 플랫폼 개발 → 평소 관심사 연계 LP 프로젝트 진행 → kafka를 활용한 내부 데이터 흐름 개선, 여러 DB 활용해보며 적재하는 데이터와 서비스 흐름에 적합한 DB를 선정하는 개발 능력 향상 → 이게 왜 해당 직무와 잘 맞는가?? → 탄소 플랫폼 개발에는 실시간 데이터 흐름과 다양한 비즈니스 로직을 다뤄야하니까!
데이터 분석 인턴 경험을 통해 데이터를 분석하고 이를 통해 인사이트를 얻는 작업에 관심이 생겼습니다. 이후 학술 동아리에서 데이터 엔지니어링을 공부하며 이러한 관심은 자연스럽게 사용자 가치를 창출하는 데이터 플랫폼을 만들고 싶다는 생각으로 발전했습니다. 평소 즐겨 하던 게임인 리그 오브 레전드의 사용자 데이터를 활용한 챔피언 추천 서비스를 주제로 프로젝트를 진행해 보며, kafka를 활용한 내부 서비스 간 데이터 파이프라인을 구현하고, 여러 DB를 공부하며 적재되는 데이터와 서비스 흐름에 적합한 DB를 활용하여 데이터 중심 아키텍처를 구성해보는 경험을 할 수 있었습니다.
현대오토에버는 제조, 물류, 협력사의 탄소 배출 데이터를 통합하고 시각화하는 시스템을 통해 ESG 대응 역량을 강화하고 있습니다. 복잡한 실시간 데이터 흐름과 도메인에 대한 깊은 이해가 필요한 비즈니스 로직을 다뤄야 하는 이러한 구조는 저의 경험과 관심사에 잘 맞다고 생각하여 현대오토에버의 전략적 과제인 탄소 종합 플랫폼 개발에 백엔드 엔지니어로서 기여하고자 지원하게 되었습니다.
입사 초기에는 업무 프로세스와 활용 지식을 깊이 있게 이해하고 선배 직원분들과 소통하며 실무적인 팁과 노하우를 얻는데 집중할 계획입니다. 팀 내 로그를 분석하고 협력사에 대한 정보를 파악하며 “탄소 배출”이라는 도메인을 이해하기 위해 노력하여 주요 팀 프로젝트에 최대한 빠르게 기여할 수 있는 능력을 갖추겠습니다. 또한 대외 동아리, 스터디를 통해 알게 된 개발 분야의 사람들과 지속적으로 네트워킹하고 기술 세미나도 참가하며 얻은 지식을 팀과 함께 공유하고 논의하면서 전체의 역량 강화에 기여하고 싶습니다. 장기적으로는 프로젝트를 기획하고 관리할 수 있는 역량을 갖추어, 회사가 추진하는 신규 사업과 글로벌 진출 프로젝트를 선도할 수 있는 핵심 인재로 성장하겠습니다. 이러한 성장 과정을 통해 현대오토에버가 지향하는 가치와 혁신에 기여할 수 있도록 노력하겠습니다.
지원 직무와 관련하여 어떠한 역량을(지식/기술 등) 강점으로 가지고 있는지, 그 역량을 갖추기 위해 무슨 노력과 경험을 했는지 구체적으로 작성해주시기 바랍니다. (학내외 활동/프로젝트/교육 이수 과정 등 본인의 경험을 기반으로 작성해주시기 바랍니다.) (최소 500자 ~ 최대 1500자)
•
어떤 역량(강점)이 있는지
•
어떤 노력을 했는지
•
노력하면서 생긴 경험들
“MSA 기반 백엔드 시스템 구축을 통한 기술적 성장”
카카오 SW 아카데미에서 MSA 아키텍처를 심도 있게 학습하고, 이를 기반 자사 복지몰 프로젝트에 참여하여 실제 서비스를 개발했습니다. 도메인을 서비스 단위로 분리하여 Spring Boot 환경에서 API를 설계하고 구현했으며, 마이크로서비스 간 통신은 서비스 간 의존성을 최소화하며 Spring에 최적화된 기술로 개발 편의성을 높이기 위해OpenFeign을 선택하여 구성했습니다. 선언적 방식으로 HTTP 통신을 구현하며, 초기 개발 속도를 높이면서 서비스 간 결합도를 관리하는데 효과적이었습니다.
기능 구현 과정에서는 단순 CRUD를 넘어 성능 최적화에도 주목했습니다. 인기 상품 조회 기능의 경우, 조회수 트래픽으로 인한 DB 부하를 줄이기 위해 Redis를 도입했습니다. Redis의 ZSet 구조를 활용하여 조회수를 캐싱하고, 실시간 인기 상품을 빠르게 조회할 수 있도록 최적화하였습니다. 이를 통해 복잡한 비즈니스 로직을 단순화하고, 시스템 부하를 효율적으로 분산하는 기술적 경험을 쌓을 수 있었습니다.
“데이터 기반 모니터링 체계 개발”
단순 기능 개발에 그치지 않고, 서비스의 품질과 안정성을 유지하기 위해 모니터링 환경을 직접 설계했습니다. 서버 메트릭 정보 수집을 위해 Prometheus를 도입하고, 경량 로그 수집을 위해 Promtail과 Loki를 사용하여, 이를 Grafana로 통합 시각화하는 환경을 설계했습니다. 또한 Grafana 알람 기능을 Slack과 연동해, 이상 징후 발생 시 즉각적인 대응이 가능하도록 하였습니다.
1차 프로토타입 시연 당일 발생한 인증 서비스의 오류를 로그 모니터링을 통해 실시간으로 파악하고, 해당 마이크로서비스와 연결되지 않은 기능을 먼저 시연하며 인증 서비스의 오류를 해결해 전체 기능 시연을 마무리할 수 있었던 경험이 있습니다. 이를 통해 서비스 내부 데이터를 쉽게 파악할 수 있는 장애 대응 체계 구축의 중요성을 깊이 깨닫게 되었습니다.
또한 데이터 흐름과 사용자 트렌드 분석을 위해서 MySQL 데이터를 Logstash를 통해 ElasticSearch에 적재하고, Kibana를 통해 시각화하며 추후 서비스 기획에 대한 인사이트를 얻기 위한 기반을 다질 수 있었습니다.
이러한 경험을 통해 단순히 서비스 운영을 넘어, 데이터가 만들어내는 흐름과 의미를 읽어내는 관점을 갖추게 되었습니다. 앞으로도 현업에서 로그 데이터와 시스템 지표를 기반으로 문제를 정의하고 해결하는 개발자로 성장하여, 서비스 품질과 비즈니스 가치를 함께 높일 수 있는 엔지니어가 되겠습니다.