Middle Data Engineer

Ми шукаємо інженера, який не просто пише ETL, а формує дата-інфраструктуру: від data lakes і cloud-платформ до стрімінгових систем і масштабованих пайплайнів.

МІСІЯ:

Будувати та оптимізувати “основу” даних для бізнесу наших клієнтів. Твоя місія виходить за межі простого переміщення даних; ти гарантуватимеш, що пайплайни є стійкими, масштабованими та економічно ефективними (FinOps). Ти станеш містком між інфраструктурою та даними, беручи на себе відповідальність за технічну реалізацію та допомагаючи формувати архітектуру сучасних платформ даних.

ЩО ТИ БУДЕШ РОБИТИ: 

  • Проектувати та впроваджувати пайплайни для завантаження, очищення та трансформації даних у Data Lakes та Data Warehouses.
  • Активно моніторити та оптимізувати пайплайни для покращення продуктивності та зниження витрат. Ти розумієш різницю між запитом, що “просто працює”, та ефективним запитом.
  • Налаштовувати розгортання пайплайнів та керувати параметрами середовища, використовуючи інструменти IaC (Terraform) та CI/CD.
  • Впроваджувати перевірки якості даних (наприклад, Great Expectations, dbt tests) та забезпечувати цілісність даних.
  • Комунікувати зі стейкхолдерами для уточнення вимог, а також надавати технічні поради та проводити code review для Junior-інженерів.

ЩО НАМ ВАЖЛИВО: 

  • Python або Scala (Advanced/OOP), SQL (Advanced).
  • Databricks, Snowflake, BigQuery, Synapse, Redshift.
  • Azure Data Factory (ADF), Airflow, Dagster.
  • Spark/PySpark (фокус на оптимізації), dbt (Core/Cloud).
  • Terraform (Реалізація), Docker, Kubernetes (K8s).
  • 2+ роки практичного досвіду в data engineering (ETL/ELT).
  • Глибоке розуміння концепцій Data Warehousing (Star/Snowflake Schema) та принципів Data Lake (Medallion Architecture).
  • Досвід роботи з Databricks (керування кластерами, notebooks), Azure Data Factory (пайплайни, data flows) або Snowflake.
  • Досконале володіння Python (OOP, функціональне програмування) та сильні навички SQL для складних трансформацій.
  • Практичний досвід роботи з принаймні однією основною хмарною платформою (AWS, GCP, Azure) та її сервісами даних (наприклад, Kinesis/Lambda, Dataflow/BigQuery, Synapse).
  • Базове розуміння Infrastructure as Code (Terraform). Вміння самостійно розгортати та модифікувати інфраструктурні ресурси.
  • Вміння доносити та аргументувати технічні рішення безпосередньо клієнтам та команді.

БУДЕ ПЛЮСОМ:

  • Досвід налаштування складних модулів у Terraform або Pulumi.
  • Практичний досвід роботи з функціями Delta Lake або Apache Iceberg (Time Travel, Schema Evolution).
  • Досвід моделювання даних для NoSQL баз даних (MongoDB, DynamoDB).

ЩО ТИ ОТРИМАЄШ:

  • Конкурентну компенсацію відповідно до досвіду та експертизи.
  • Вплив на вибір технологій, архітектуру й пріоритети.
  • Сильне середовище інженерів, архітекторів та аналітиків.
  • Сучасний стек: Spark, Kafka, Snowflake, Databricks, Airflow, dbt, Docker.
  • Кар’єрний трек з прозорими review та growth-планом.
  • Best practices: code review, CI/CD, тестування пайплайнів.
  • Виклики — великі дані, real-time стріми, складні інтеграції.
  • Гнучкість — remote-first та work-life balance.
  • Ротацію між проєктами й доменами.
  • Розвиток — сертифікації, платформи, knowledge sharing.
  • Міжнародність — глобальні клієнти та мультинаціональні команди.


Приєднуйся до NIX — і допоможи нам будувати дата-архітектури, які визначають майбутнє бізнесу.