Szukamy inżyniera, który nie tylko napisze ETL, ale także zbuduje infrastrukturę danych: od jezior danych i platform chmurowych po systemy strumieniowe i skalowalne potoki.MISJA:Budowanie i optymalizacja „bazy” danych dla biznesów naszych klientów. Twoja misja wykracza poza zwykłe przenoszenie danych; zapewnisz, że rurociągi będą zrównoważone, skalowalne i opłacalne (FinOps). Będziesz pomostem między infrastrukturą a danymi, biorąc odpowiedzialność za techniczną implementację i pomagając kształt
Szukamy inżyniera, który nie tylko napisze ETL, ale także zbuduje infrastrukturę danych: od jezior danych i platform chmurowych po systemy strumieniowe i skalowalne potoki.
MISJA:
Budowanie i optymalizacja „bazy” danych dla biznesów naszych klientów. Twoja misja wykracza poza zwykłe przenoszenie danych; zapewnisz, że rurociągi będą zrównoważone, skalowalne i opłacalne (FinOps). Będziesz pomostem między infrastrukturą a danymi, biorąc odpowiedzialność za techniczną implementację i pomagając kształtować architekturę nowoczesnych platform danych.
CO ZROBISZ:
- Projektuj i wdrażaj potoki ładowania, czyszczenia i przekształcania danych w jeziora danych i hurtownie danych.
- Aktywnie monitoruj i optymalizować rurociągi, aby poprawić produktywność i obniżyć koszty. Rozumiesz różnicę między zapytaniem, które „po prostu działa”, a zapytaniem skutecznym.
- Skonfiguruj potoki wdrażania i zarządzaj parametrami środowiska za pomocą narzędzi IaC (Terraform) i CI/CD.
- Wdrażaj kontrole jakości danych (np. Wielkie oczekiwania, testy dbt) i zapewniaj integralność danych.
- Komunikuj się z interesariuszami, aby wyjaśnić wymagania i zapewnić porady techniczne oraz przeprowadzić przegląd kodu dla młodszych inżynierów.
CO TO JEST WAŻNE DLA NAS:
- Python lub Scala (Zaawansowane/OOP), SQL (Zaawansowane).
- Databricks, Snowflake, BigQuery, Synapse, Redshift.
- Azure Data Factory (ADF), Airflow, Dagster.
Architecture).- Doświadczenie z Databricks (zarządzanie klastrami, notatniki), Azure Data Factory (potoki, przepływy danych) lub Snowflake.
- biegła znajomość Pythona (OOP, programowanie funkcjonalne) i silne umiejętności SQL do złożonych transformacji.
- Praktyczne doświadczenie z co najmniej jednym główna platforma chmurowa (AWS, GCP, Azure) i jej usługi danych (np. Kinesis/Lambda, Dataflow/BigQuery, Synapse).
- Podstawowe zrozumienie Infrastruktury jako kodu (Terraform). Umiejętność samodzielnego wdrażania i modyfikowania zasobów infrastruktury.
- Umiejętność komunikowania i argumentowania rozwiązań technicznych bezpośrednio klientom i zespołowi.
BĘDZIE PLUS:
- Doświadczenie w konfigurowaniu złożonych modułów w Terraform lub Pulumi.
- Ppraktyczne doświadczenie z funkcjami Delta Lake lub Apache Iceberg (Time Travel, Schema Evolution).
- Doświadczenie w modelowaniu danych dla baz danych NoSQL (MongoDB, DynamoDB).
CO OTRZYMASZ:
- Konkurencyjne wynagrodzenie zgodnie z doświadczeniem i wiedzą.
- Wpływ wybory technologiczne, architektura i priorytety.
- Silne środowisko inżynierów, architektów i analityków.
- Nowoczesny stos: Spark, Kafka, Snowflake, Databricks, Airflow, dbt, Docker.
- Ścieżka kariery z przejrzystymi recenzjami i planem rozwoju.
- Najlepsze praktyki: przegląd kodu, CI/CD, testowanie rurociągów.
- Wyzwania — big data, strumienie w czasie rzeczywistym, złożona integracja.
- Elastyczność - na pierwszym miejscu zdalne i równowaga między życiem zawodowym a prywatnym.
- Rotacja pomiędzy projekty i domeny.
- Rozwój - certyfikaty, platformy, dzielenie się wiedzą.
- Międzynarodowość - klienci globalni i międzynarodowi zespoły.
Dołącz do NIX — i pomóż nam budować architektury danych, które definiują przyszłość biznesu.