Następna praca

Środkowy inżynier danych w Niks

25 marca

14 wyświetleń

Niks

Niks

0
0 recenzji
Brak doświadczenia
Charków
Pełny etat

Przetłumaczone przez Google

Szukamy inżyniera, który nie tylko napisze ETL, ale także zbuduje infrastrukturę danych: od jezior danych i platform chmurowych po systemy strumieniowe i skalowalne potoki.MISJA:Budowanie i optymalizacja „bazy” danych dla biznesów naszych klientów. Twoja misja wykracza poza zwykłe przenoszenie danych; zapewnisz, że rurociągi będą zrównoważone, skalowalne i opłacalne (FinOps). Będziesz pomostem między infrastrukturą a danymi, biorąc odpowiedzialność za techniczną implementację i pomagając kształt

Szukamy inżyniera, który nie tylko napisze ETL, ale także zbuduje infrastrukturę danych: od jezior danych i platform chmurowych po systemy strumieniowe i skalowalne potoki.

MISJA:

Budowanie i optymalizacja „bazy” danych dla biznesów naszych klientów. Twoja misja wykracza poza zwykłe przenoszenie danych; zapewnisz, że rurociągi będą zrównoważone, skalowalne i opłacalne (FinOps). Będziesz pomostem między infrastrukturą a danymi, biorąc odpowiedzialność za techniczną implementację i pomagając kształtować architekturę nowoczesnych platform danych.

CO ZROBISZ:

  • Projektuj i wdrażaj potoki ładowania, czyszczenia i przekształcania danych w jeziora danych i hurtownie danych.
  • Aktywnie monitoruj i optymalizować rurociągi, aby poprawić produktywność i obniżyć koszty. Rozumiesz różnicę między zapytaniem, które „po prostu działa”, a zapytaniem skutecznym.
  • Skonfiguruj potoki wdrażania i zarządzaj parametrami środowiska za pomocą narzędzi IaC (Terraform) i CI/CD.
  • Wdrażaj kontrole jakości danych (np. Wielkie oczekiwania, testy dbt) i zapewniaj integralność danych.
  • Komunikuj się z interesariuszami, aby wyjaśnić wymagania i zapewnić porady techniczne oraz przeprowadzić przegląd kodu dla młodszych inżynierów.

CO TO JEST WAŻNE DLA NAS:

  • Python lub Scala (Zaawansowane/OOP), SQL (Zaawansowane).
  • Databricks, Snowflake, BigQuery, Synapse, Redshift.
  • Azure Data Factory (ADF), Airflow, Dagster.
  • Architecture).
  • Doświadczenie z Databricks (zarządzanie klastrami, notatniki), Azure Data Factory (potoki, przepływy danych) lub Snowflake.
  • biegła znajomość Pythona (OOP, programowanie funkcjonalne) i silne umiejętności SQL do złożonych transformacji.
  • Praktyczne doświadczenie z co najmniej jednym główna platforma chmurowa (AWS, GCP, Azure) i jej usługi danych (np. Kinesis/Lambda, Dataflow/BigQuery, Synapse).
  • Podstawowe zrozumienie Infrastruktury jako kodu (Terraform). Umiejętność samodzielnego wdrażania i modyfikowania zasobów infrastruktury.
  • Umiejętność komunikowania i argumentowania rozwiązań technicznych bezpośrednio klientom i zespołowi.

BĘDZIE PLUS:

  • Doświadczenie w konfigurowaniu złożonych modułów w Terraform lub Pulumi.
  • Ppraktyczne doświadczenie z funkcjami Delta Lake lub Apache Iceberg (Time Travel, Schema Evolution).
  • Doświadczenie w modelowaniu danych dla baz danych NoSQL (MongoDB, DynamoDB).

CO OTRZYMASZ:

  • Konkurencyjne wynagrodzenie zgodnie z doświadczeniem i wiedzą.
  • Wpływ wybory technologiczne, architektura i priorytety.
  • Silne środowisko inżynierów, architektów i analityków.
  • Nowoczesny stos: Spark, Kafka, Snowflake, Databricks, Airflow, dbt, Docker.
  • Ścieżka kariery z przejrzystymi recenzjami i planem rozwoju.
  • Najlepsze praktyki: przegląd kodu, CI/CD, testowanie rurociągów.
  • Wyzwania — big data, strumienie w czasie rzeczywistym, złożona integracja.
  • Elastyczność - na pierwszym miejscu zdalne i równowaga między życiem zawodowym a prywatnym.
  • Rotacja pomiędzy projekty i domeny.
  • Rozwój - certyfikaty, platformy, dzielenie się wiedzą.
  • Międzynarodowość - klienci globalni i międzynarodowi zespoły.


Dołącz do NIX — i pomóż nam budować architektury danych, które definiują przyszłość biznesu.

Przetłumaczone przez Google

Brak doświadczenia
Charków
Pełny etat
Czy chcesz znaleźć odpowiednią pracę?
Nowe oferty pracy w Twoim Telegram
Subskrybuj
używamy cookies
Akceptować