Senior Data Engineer
Стань лідером data-стратегії для наших глобальних клієнтів. Ми шукаємо Senior Data Engineer, який виступатиме надійним технічним радником — людину, здатну проектувати складні Lakehouse-архітектури, аргументовано захищати технічні рішення перед стейкхолдерами та драйвити пресейл-активності.
МІСІЯ:
Твоя місія — проектувати масштабовані, безпечні та економічно ефективні платформи даних, що вирішують критичні бізнес-задачі. Ти проводитимеш технічні аудити, визначатимеш best practices для команди та будуватимеш фундаментальну інфраструктуру, що дає можливість реалізувати просунуту аналітику та впровадження AI/GenAI можливостей для наших клієнтів.
ЩО ТИ БУДЕШ РОБИТИ:
- Очолювати проектування та впровадження масштабованих пайплайнів та Lakehouse-архітектур. Виступати ключовим технічним експертом (Design Authority) на проектах.
- Вирішувати найскладніші технічні виклики — оптимізація високонавантажених стрімінгових пайплайнів, дебагінг складних Spark-job та розробка універсальних фреймворків.
- Брати участь у технічних оцінках, аудитах існуючих систем та підготовці пропозицій (estimations). Пояснювати клієнтам ROI технічної модернізації.
- Гарантувати, що всі рішення готові до продакшну: безпечні, покриті моніторингом, економічно ефективні (FinOps) та документовані.
- Визначати стандарти кодування, проводити code reviews та менторити Middle/Junior інженерів для розвитку Data Engineering напряму.
ЩО НАМ ВАЖЛИВО:
- Python або Scala (Експертний рівень/Design Patterns), SQL (Експертний рівень).
- Databricks (Unity Catalog), Snowflake, BigQuery, Synapse.
- Spark/PySpark (Глибоке розуміння внутрішніх механізмів, тюнінг, стрімінг), dbt (Enterprise патерни).
- Data Mesh, Lakehouse (Delta Lake/Iceberg), Lambda/Kappa.
- Просунутий Terraform/IaC, CI/CD, Docker/Kubernetes.
- Feature Stores, Vector Databases, основи MLOps.
- Експертний рівень володіння Python (патерни проектування, розробка бібліотек) та SQL. Вміння оптимізувати код, написаний іншими.
- Глибоке володіння Databricks (керування пам’яттю Spark, стратегії партиціювання) або Snowflake (тюнінг Warehouse, RBAC, Zero-Copy Cloning). Ти розумієш, як ці інструменти працюють “під капотом”.
- Здатність проектувати end-to-end рішення, обирати правильні інструменти (наприклад, аргументувати «Чому Snowflake, а не Redshift у цьому кейсі?») та захищати свої рішення перед керівництвом клієнта.
- Експертні знання AWS, GCP або Azure. Глибоке розуміння мереж (VPC, PrivateLink), безпеки (IAM) та лімітів інтеграції.
- Досвід участі у Presales, технічних аудитах або discovery-фазах. Вміння трансформувати бізнес-потреби у технічні специфікації.
- Розуміння принципів підготовки даних для Machine Learning (Feature Engineering, пайплайни для LLM/RAG).
БУДЕ ПЛЮСОМ:
- Глибокий досвід роботи з Kafka, Kinesis або Spark Structured Streaming.
- Досвід роботи з векторними базами даних (Pinecone, pgvector, Weaviate) або фреймворками типу LangChain.
- Професійні хмарні сертифікації (наприклад, AWS Solutions Architect Pro, Databricks Certified DE Professional).
- Просунуте моделювання даних для DynamoDB, Cosmos DB або MongoDB.