Senior Data Engineer

Стань лідером data-стратегії для наших глобальних клієнтів. Ми шукаємо Senior Data Engineer, який виступатиме надійним технічним радником — людину, здатну проектувати складні Lakehouse-архітектури, аргументовано захищати технічні рішення перед стейкхолдерами та драйвити пресейл-активності.

МІСІЯ:

Твоя місія — проектувати масштабовані, безпечні та економічно ефективні платформи даних, що вирішують критичні бізнес-задачі. Ти проводитимеш технічні аудити, визначатимеш best practices для команди та будуватимеш фундаментальну інфраструктуру, що дає можливість реалізувати просунуту аналітику та впровадження AI/GenAI можливостей для наших клієнтів.

ЩО ТИ БУДЕШ РОБИТИ: 

  • Очолювати проектування та впровадження масштабованих пайплайнів та Lakehouse-архітектур. Виступати ключовим технічним експертом (Design Authority) на проектах.
  • Вирішувати найскладніші технічні виклики — оптимізація високонавантажених стрімінгових пайплайнів, дебагінг складних Spark-job та розробка універсальних фреймворків.
  • Брати участь у технічних оцінках, аудитах існуючих систем та підготовці пропозицій (estimations). Пояснювати клієнтам ROI технічної модернізації.
  • Гарантувати, що всі рішення готові до продакшну: безпечні, покриті моніторингом, економічно ефективні (FinOps) та документовані.
  • Визначати стандарти кодування, проводити code reviews та менторити Middle/Junior інженерів для розвитку Data Engineering напряму.

ЩО НАМ ВАЖЛИВО: 

  • Python або Scala (Експертний рівень/Design Patterns), SQL (Експертний рівень).
  • Databricks (Unity Catalog), Snowflake, BigQuery, Synapse.
  • Spark/PySpark (Глибоке розуміння внутрішніх механізмів, тюнінг, стрімінг), dbt (Enterprise патерни).
  • Data Mesh, Lakehouse (Delta Lake/Iceberg), Lambda/Kappa.
  • Просунутий Terraform/IaC, CI/CD, Docker/Kubernetes.
  • Feature Stores, Vector Databases, основи MLOps.
  • Експертний рівень володіння Python (патерни проектування, розробка бібліотек) та SQL. Вміння оптимізувати код, написаний іншими.
  • Глибоке володіння Databricks (керування пам’яттю Spark, стратегії партиціювання) або Snowflake (тюнінг Warehouse, RBAC, Zero-Copy Cloning). Ти розумієш, як ці інструменти працюють “під капотом”.
  • Здатність проектувати end-to-end рішення, обирати правильні інструменти (наприклад, аргументувати «Чому Snowflake, а не Redshift у цьому кейсі?») та захищати свої рішення перед керівництвом клієнта.
  • Експертні знання AWS, GCP або Azure. Глибоке розуміння мереж (VPC, PrivateLink), безпеки (IAM) та лімітів інтеграції.
  • Досвід участі у Presales, технічних аудитах або discovery-фазах. Вміння трансформувати бізнес-потреби у технічні специфікації.
  • Розуміння принципів підготовки даних для Machine Learning (Feature Engineering, пайплайни для LLM/RAG).

БУДЕ ПЛЮСОМ:

  • Глибокий досвід роботи з Kafka, Kinesis або Spark Structured Streaming.
  • Досвід роботи з векторними базами даних (Pinecone, pgvector, Weaviate) або фреймворками типу LangChain.
  • Професійні хмарні сертифікації (наприклад, AWS Solutions Architect Pro, Databricks Certified DE Professional).
  • Просунуте моделювання даних для DynamoDB, Cosmos DB або MongoDB.