Middle Data Engineer
Ми шукаємо інженера, який не просто пише ETL, а формує дата-інфраструктуру: від data lakes і cloud-платформ до стрімінгових систем і масштабованих пайплайнів.
МІСІЯ:
Будувати та оптимізувати “основу” даних для бізнесу наших клієнтів. Твоя місія виходить за межі простого переміщення даних; ти гарантуватимеш, що пайплайни є стійкими, масштабованими та економічно ефективними (FinOps). Ти станеш містком між інфраструктурою та даними, беручи на себе відповідальність за технічну реалізацію та допомагаючи формувати архітектуру сучасних платформ даних.
ЩО ТИ БУДЕШ РОБИТИ:
- Проектувати та впроваджувати пайплайни для завантаження, очищення та трансформації даних у Data Lakes та Data Warehouses.
- Активно моніторити та оптимізувати пайплайни для покращення продуктивності та зниження витрат. Ти розумієш різницю між запитом, що “просто працює”, та ефективним запитом.
- Налаштовувати розгортання пайплайнів та керувати параметрами середовища, використовуючи інструменти IaC (Terraform) та CI/CD.
- Впроваджувати перевірки якості даних (наприклад, Great Expectations, dbt tests) та забезпечувати цілісність даних.
- Комунікувати зі стейкхолдерами для уточнення вимог, а також надавати технічні поради та проводити code review для Junior-інженерів.
ЩО НАМ ВАЖЛИВО:
- Python або Scala (Advanced/OOP), SQL (Advanced).
- Databricks, Snowflake, BigQuery, Synapse, Redshift.
- Azure Data Factory (ADF), Airflow, Dagster.
- Spark/PySpark (фокус на оптимізації), dbt (Core/Cloud).
- Terraform (Реалізація), Docker, Kubernetes (K8s).
- 2+ роки практичного досвіду в data engineering (ETL/ELT).
- Глибоке розуміння концепцій Data Warehousing (Star/Snowflake Schema) та принципів Data Lake (Medallion Architecture).
- Досвід роботи з Databricks (керування кластерами, notebooks), Azure Data Factory (пайплайни, data flows) або Snowflake.
- Досконале володіння Python (OOP, функціональне програмування) та сильні навички SQL для складних трансформацій.
- Практичний досвід роботи з принаймні однією основною хмарною платформою (AWS, GCP, Azure) та її сервісами даних (наприклад, Kinesis/Lambda, Dataflow/BigQuery, Synapse).
- Базове розуміння Infrastructure as Code (Terraform). Вміння самостійно розгортати та модифікувати інфраструктурні ресурси.
- Вміння доносити та аргументувати технічні рішення безпосередньо клієнтам та команді.
БУДЕ ПЛЮСОМ:
- Досвід налаштування складних модулів у Terraform або Pulumi.
- Практичний досвід роботи з функціями Delta Lake або Apache Iceberg (Time Travel, Schema Evolution).
- Досвід моделювання даних для NoSQL баз даних (MongoDB, DynamoDB).
ЩО ТИ ОТРИМАЄШ:
- Конкурентну компенсацію відповідно до досвіду та експертизи.
- Вплив на вибір технологій, архітектуру й пріоритети.
- Сильне середовище інженерів, архітекторів та аналітиків.
- Сучасний стек: Spark, Kafka, Snowflake, Databricks, Airflow, dbt, Docker.
- Кар’єрний трек з прозорими review та growth-планом.
- Best practices: code review, CI/CD, тестування пайплайнів.
- Виклики — великі дані, real-time стріми, складні інтеграції.
- Гнучкість — remote-first та work-life balance.
- Ротацію між проєктами й доменами.
- Розвиток — сертифікації, платформи, knowledge sharing.
- Міжнародність — глобальні клієнти та мультинаціональні команди.
Приєднуйся до NIX — і допоможи нам будувати дата-архітектури, які визначають майбутнє бізнесу.