직무 설명:
1. 블록체인 데이터 파싱 및 인덱서 개발
• EVM, 솔라나, 수이 등 다양한 퍼블릭 체인의 블록, 트랜잭션, 이벤트 로그 및 관련 온체인 구조를 처리하기 위한 멀티체인 데이터 파싱 모듈 설계 및 구현
• 데이터 안정성과 실시간 신선도를 보장하기 위한 고성능 및 고가용성 데이터 동기화 및 저장 아키텍처 구축
2. 온체인 데이터 처리 및 컴퓨팅 파이프라인 구축
• 데이터 처리 효율성 향상을 위한 스트리밍 및 배치 ETL 파이프라인 개발 (카프카 / 플링크 / 스파크 등)
• 데이터 모델, 인덱싱 전략 및 작업 스케줄링 최적화를 통한 초 단위 데이터 신선도 달성
3. 인덱서 성능 최적화 및 아키텍처 업그레이드
• 파서 및 데이터 동기화 모듈 성능 최적화 (블룸 필터 향상, 배치 처리, 동시성 튜닝 등)를 통한 처리량 증가 및 지연 시간 감소
• 트랜잭션 API 및 라벨링 API와 같은 내부 데이터 인터페이스 리팩토링을 통한 전반적인 응답 속도 및 시스템 신뢰성 향상
4. 온체인 데이터 API 및 백엔드 서비스 개발
• 높은 QPS와 고가용성을 갖춘 포트폴리오, 토큰 분석 및 트랜잭션 분석 API 설계 및 구현
• 내부 팀(리스크 관리, 운영, 대시보드)에 신뢰할 수 있는 온체인 데이터 접근 지원
5. 멀티체인 생태계 및 이벤트/웹훅 시스템 유지보수
• 높은 처리량의 웹훅 전달(수만 QPS까지 가능)을 통한 블록체인 이벤트 구독 기능 제공
• 강력한 작업 관리, 재시도 및 오류 보상 메커니즘 구축
6. 프로토콜 파싱 및 생태계 협업
• DeFi 프로토콜(예: 유니스왑) 통합 개발 및 프로토콜별 이벤트 파싱 유지보수
• 주요 체인 생태계의 업데이트 추적 및 파싱 로직과 데이터 모델 지속적 유지보수
자격 요건:
• 최소 한 가지 백엔드 언어 숙련 (Go 우대; Node.js 또는 Rust도 가능)
• 이더리움, 트론, 솔라나, 수이 등 주요 체인의 데이터 구조 및 RPC 인터페이스에 대한 깊은 이해
• 블록체인 데이터 동기화, 인덱스 구축 및 노드 상호작용 경험
• 카프카, 플링크, 스파크, StarRocks, ClickHouse 또는 TiDB와 같은 데이터 인프라에 대한 친숙도
• 고동시성 및 고가용성 데이터 서비스 구축 경험 (10k+ QPS 경험자 우대)
• 인덱서, 온체인 데이터 클렌징 및 이벤트 파싱 실무 경험
우대 사항
• 대규모 블록체인 데이터 웨어하우스 또는 데이터 레이크 경험
• DeFi 프로토콜(AMM, 대출, 파생상품 등)에 대한 강력한 지식
• 블록체인 생태계 그랜트, 제안 또는 오픈소스 프로젝트 기여 경력
• 쿠버네티스 및 클라우드 네이티브 시스템 경험
• 웹훅 또는 실시간 데이터 푸시 시스템 구축 경험
혜택:
• 매우 경쟁력 있는 급여 및 주기적인 추가 보상 제공
• 유연한 근무 환경 및 원격 근무 기회
• 높은 커뮤니티 평판을 가진 블록체인 개발 기회
• 최고 수준의 블록체인 개발자 팀과 함께 일할 수 있는 기회


