Мы ищем инженера, который не просто пишет ETL, а формирует дата-инфраструктуру: от data lakes и cloud-платформстриминговых систем и масштабируемых пайплайнов.МИСИЯ: оптимизировать "основу" данных для бизнеса наших клиентов. Твоя миссия выходит за пределы простого перемещения данных; ты будешь гарантировать, что пайплайны устойчивы, масштабированы и экономически эффективны (FinOps). Ты станешь мостиком между инфраструктурой и данными, беря на себя ответственность за техническую реализацию и помог
Мы ищем инженера, который не просто пишет ETL, а формирует дата-инфраструктуру: от data lakes и cloud-платформстриминговых систем и масштабируемых пайплайнов.
МИСИЯ:
ЧТО ты будешь делать: загрузка, очистка и трансформация данных в Data Lakes и Data Warehouses.
Активно мониторить и оптимизировать пайплайны для улучшения производительности и снижения затрат. Ты понимаешь разницу между просто работающим запросом и эффективным запросом.
Настраивать развертывание пайплайнов и управлять параметрами среды, используя инструменты IaC (Terraform) и CI/CD.
Внедрять проверки качества данных (например, Great Expectations, dbt данных.
Коммуниковать со стейкхолдерами для уточнения требований, а также предоставлять технические советы и проводить code review для Junior-инженеров.
ЧТО НАМ ВАЖНО:
ПРактический опыт работы с функциями Delta Lake или Apache Iceberg (Time Travel, Schema Evolution).
Опыт моделирования данных для NoSQL баз данных (MongoDB, DynamoDB). 400">
Конкурентная компенсация в соответствии с опытом и экспертизой.