Middle Data Engineer (Lakehouse / Big Data)
- Нур-Султан Алматы
- Постоянная работа
- Полная занятость
- Развитие архитектуры: Участие в миграции и построении Modern Data Stack (переход к Lakehouse).
- Работа с Big Data: Проектирование слоев данных в объектном хранилище (MinIO S3) и их обработка через Spark/Trino/Impala.
- Построение витрин: Создание быстрых витрин данных на StarRocks и ClickHouse для бизнеса.
- ETL/ELT: Написание и оптимизация пайплайнов (Airflow + Python/SQL).
- Взаимодействие: Работа с аналитиками и участие в проектировании моделей данных (ODS / DWH / MART).
- Наш технологический стек:
- Storage: MinIO (S3 compatible) — строим Data Lake здесь.
- Compute & Query Federation: Trino, Apache Impala, Apache Spark — для обработки и запросов поверх озера.
- DWH & OLAP: Greenplum (Core DWH), StarRocks, ClickHouse (быстрые витрины), PostgreSQL.
- Orchestration & Code: Apache Airflow, Python, SQL (Expert level).
- Опыт работы Data Engineer от 2–3 лет.
- Уверенное владение SQL (оконные функции, оптимизация планов запросов).
- Понимание принципов работы S3-хранилищ и колоночных баз данных.
- Опыт или большое желание работать с экосистемой Hadoop/Spark и MPP-системами.
- Самостоятельность: умение разобраться в чужом коде и сложной бизнес-логике (Retail: транзакции, логистика, ассортимент).
- 200+ магазинов разных форматов в 14 городах Казахстана
- 13 000+ сотрудников в нашей команде
- 15 лет на рынке
- 1000+ повышений сотрудников в год
HeadHunter