Data Engineer Архив
iGaming-проект
Вакансия в архиве. Эта позиция снята с активной публикации и сохранена для истории.
Мы - международная продуктовая команда, работающая в сфере iGaming. В портфеле - несколько онлайн-казино, партнёрские программы и беттинг-продукт. Два ключевых бренда успешно развиваются более 6 и 13 лет. Сейчас компания активно масштабируется и ставит стратегическую цель - перейти с партнёрских платформ на собственную технологическую экосистему. Команда полностью распределённая (более 110 специалистов) и объединяет профессионалов из разных стран. Мы ценим прозрачность, открытость и дружескую атмосферу.
Что делать
- Разрабатывать и поддерживать ETL/ELT-потоки данных между системами: ClickHouse, BigQuery, MySQL, PostgreSQL, Kafka, S3.
- Интегрировать внешние источники данных (реляционные/нереляционные БД, API, брокеры сообщений, файловые хранилища) в корпоративное DWH.
- Проектировать и оптимизировать дата-пайплайны (Airflow, Airbyte, SeaTunnel, Vector.dev, dbt).
- Подготавливать дата-марты и витрины для BI-систем (Tableau, Metabase, Looker Studio).
- Разрабатывать SQL-вью и скрипты трансформаций для расчёта ключевых метрик (GGR, NGR, FTD, Retention, LTV).
- Следить за качеством данных, контролировать целостность и мониторить пайплайны (Airflow, GreatExpectations).
- Взаимодействовать с командами Data Analytics, Marketing, Product и CRM для совместной работы над продуктовой аналитикой.
Что уметь
- Опыт работы с системами хранения данных: ClickHouse, PostgreSQL, MySQL.
- Уверенные навыки написания и оптимизации сложных SQL-запросов.
- Опыт работы с Kafka (producers, consumers, topics, SSL).
- Владение Python (pandas, clickhouse-connect, airflow, requests).
- Опыт работы с ETL-инструментами: Airflow, Airbyte.
- Понимание архитектуры DWH и принципов построения BI-отчётности.
- Владение Git.
- Знание CI/CD, контейнеризации (Docker / Podman / k8s / Helm).
- Английский язык - на уровне чтения технической документации.