Następna praca

Starszy inżynier danych GCP w Link Group

Opublikowano ponad 30 dni temu

136 wyświetleń

Link Group

Link Group

5
1 recenzja
Brak doświadczenia
Pełny etat
Oferta zawiera stabilne zatrudnienie, możliwość pracy zdalnej lub w biurze, oraz szeroki pakiet benefitów edukacyjnych i rozwojowych. Proces rekrutacyjny obejmuje rozmowy z HR, techniczne oraz z klientem. Minimum 6 lat doświadczenia w obszarze danych i analiz. Minimum 2 lata doświadczenia z GCP . Znajomość usług chmurowych GCP (BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow). Doświadczenie z GIT. Znajomość SQL oraz przynajmniej jednego z języków programowania: Java, Python.

Oferta zawiera stabilne zatrudnienie, możliwość pracy zdalnej lub w biurze, oraz szeroki pakiet benefitów edukacyjnych i rozwojowych. Proces rekrutacyjny obejmuje rozmowy z HR, techniczne oraz z klientem.

  • Minimum 6 lat doświadczenia w obszarze danych i analiz.
  • Minimum 2 lata doświadczenia z GCP .
  • Znajomość usług chmurowych GCP (BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow).
  • Doświadczenie z GIT.
  • Znajomość SQL oraz przynajmniej jednego z języków programowania: Java, Python.
  • Znajomość zasad projektowania DWH, Data Lake, Lakehouse.
  • Silne zdolności analityczne i rozwiązywania problemów.
  • Bardzo dobra komunikacja w języku angielskim, zarówno werbalna, jak i pisemna.
  • Mile widziane:

    • Doświadczenie z Docker, Kubernetes, Terraform.
    • Doświadczenie z frameworkami danych jak dbt, narzędziami ETL jak Talend oraz platformami do przesyłania danych jak Fivetran.
    • Znajomość procesów CI/CD.
    • Doświadczenie w metodologii Agile.
    • Umiejętność pracy zarówno samodzielnej, jak i zespołowej.

    Oferta zawiera stabilne zatrudnienie, możliwość pracy zdalnej lub w biurze, oraz szeroki pakiet benefitów edukacyjnych i rozwojowych. Proces rekrutacyjny obejmuje rozmowy z HR, techniczne oraz z klientem.

    ,[Tworzenie skalowalnych frameworków do implementacji procesów pobierania danych, magazynów danych, jezior danych oraz rozwiązań do przetwarzania danych dla nowych i istniejących klientów. , Budowanie i utrzymywanie efektywnych, skalowalnych i niezawodnych architektur danych do analiz i raportowania. , Implementacja procesów sprawdzania jakości i walidacji danych w celu zapewnienia ich dokładności i spójności. , Utrzymywanie i aktualizacja dokumentacji oraz słowników danych. , Współpraca z zespołami międzyfunkcyjnymi w celu przekładania wymagań biznesowych na rozwiązania techniczne. ] Вимоги: GCP, BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow, Git, SQL, Java, Python, DWH, Data Lake, Lakehouse, Docker, Kubernetes, Terraform, dbt, ETL, Fivetran, CI/CD Інструменти: Agile. Бонуси та переваги: Sport subscription, Private healthcare, Small teams.

Brak doświadczenia
Pełny etat
Czy chcesz znaleźć odpowiednią pracę?
Nowe oferty pracy w Twoim Telegram
Subskrybuj
używamy cookies
Akceptować