Middle Data Engineer Python
Ми шукаємо інженера, який не просто пише ETL, а формує дата-інфраструктуру: від data lakes і cloud-платформ до стрімінгових систем і масштабованих пайплайнів.
ЩО ТИ БУДЕШ РОБИТИ:
- Проєктувати архітектуру та реалізовувати нові фічі для data-платформи, співпрацюючи з Business Data Analysts, Data Scientists і стейкхолдерами.
- Розробляти й підтримувати ETL/ELT пайплайни для обробки даних із зовнішніх API, data streams та data lakes.
- Трансформувати та інтегрувати дані, використовуючи Python і сучасні бібліотеки (Pandas, PySpark, Polars, PyArrow).
- Оптимізувати обчислення на принципах distributed computing та ефективного використання ресурсів.
- Застосовувати cloud-платформи (AWS, GCP, Azure) та їхні core-сервіси для зберігання, обробки і доставки даних.
- Будувати рішення на основі data warehouses (Snowflake, BigQuery, Redshift) та data lakes як частини сучасної архітектури.
- Писати продуктивні SQL-запити, виконувати query tuning та інтегруватися з БД (PostgreSQL, MSSQL, MySQL).
- Проєктувати data models з урахуванням OLTP/OLAP, SCD, star/snowflake схем.
- Оркеструвати дата-процеси, використовуючи фреймворки (Airflow, Prefect, Glue, Azure Data Factory).
- Дотримуватись best practices щодо data security, privacy та governance.
- Аналізувати існуючі пайплайни, пропонувати оптимізації й брати участь у технічному decision-making.
- Ділитися знаннями та брати участь у внутрішньому knowledge sharing.
Ми очікуємо, що ти маєш щонайменше чотири роки комерційного досвіду виконання подібних задач.
НАШІ ПРОЄКТИ:
Ми будуємо data-рішення у різних доменах: e-commerce, fintech, healthcare, telecom, adtech та supply chain. Це означає роботу з різними джерелами даних, високими навантаженнями й бізнес-процесами світових компаній.
Ми працюємо з cloud-native data платформами, stream processing, real-time аналітикою та data science ініціативами. Використовуємо сучасний стек: data warehouses (Snowflake, BigQuery, Redshift), data lakes (S3, ADLS), orchestration (Airflow), distributed processing (Spark, Databricks, Flink).
Технологічні підходи залежать від клієнта й задачі, але завжди:
- дотримуємось best practices у data architecture, security та governance;
- працюємо в міжнародних командах із чітким розподілом зон відповідальності;
- даємо інженерам вплив на вибір технологій і архітектурних рішень;
- враховуємо індивідуальні інтереси — доступна ротація між проєктами.
ЩО НАМ ВАЖЛИВО:
- Мислити системно — бачити вплив рішень на архітектуру й підтримку платформи.
- Розбиратися в деталях — перевіряти дані, помічати аномалії й залежності.
- Аналізувати критично — спиратися на дані, а не припущення.
- Комунікувати ефективно — доносити ідеї зрозуміло для команди й стейкхолдерів.
- Брати ініціативу — пропонувати оптимізації та впроваджувати зміни.
- Працювати командно — ділитись знаннями, підтримувати відкриту культуру ревʼю та колаборації.
БУДЕ ПЛЮСОМ:
- Досвід із Snowflake, BigQuery чи Redshift.
- Оптимізація Spark.
- Розуміння SQL/NoSQL підходів.
- Робота з data lakes та lakehouse-платформами.
- Контейнеризація (Docker, Kubernetes) або serverless (AWS Lambda).
- Знання форматів даних (Parquet, Avro, ORC, JSON, XML).
- Інтеграції з Databricks, Talend, Fivetran, Informatica.
- Досвід у BI чи ML.
ЩО ТИ ОТРИМАЄШ:
- Конкурентну компенсацію відповідно до досвіду та експертизи.
- Вплив на вибір технологій, архітектуру й пріоритети.
- Сильне середовище інженерів, архітекторів та аналітиків.
- Сучасний стек: Spark, Kafka, Snowflake, Databricks, Airflow, dbt, Docker.
- Кар’єрний трек з прозорими review та growth-планом.
- Best practices: code review, CI/CD, тестування пайплайнів.
- Виклики — великі дані, real-time стріми, складні інтеграції.
- Гнучкість — remote-first та work-life balance.
- Ротацію між проєктами й доменами.
- Розвиток — сертифікації, платформи, knowledge sharing.
- Міжнародність — глобальні клієнти та мультинаціональні команди.
Приєднуйся до NIX — і допоможи нам будувати дата-архітектури, які визначають майбутнє бізнесу.