Nächste Arbeit

Leitender GCP-Dateningenieur in Link Group

Gepostet vor über 30 Tagen

134 Ansichten

Link Group

Link Group

5
1 Bewertung
keine Erfahrung
Vollzeitarbeit

übersetzt von Google

Das Angebot umfasst eine stabile Beschäftigung, die Möglichkeit, aus der Ferne oder im Büro zu arbeiten, sowie ein breites Paket an Bildungs- und Entwicklungsvorteilen. Der Rekrutierungsprozess umfasst Interviews mit der Personalabteilung sowie technische und Kundeninterviews. Mindestens 6 Jahre Erfahrung im Bereich Daten und Analyse. Mindestens 2 Jahre Erfahrung mit GCP . Kenntnisse über GCP-Cloud-Dienste (BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow). Erfahrung mit GIT. Kenn

Das Angebot umfasst eine stabile Beschäftigung, die Möglichkeit, aus der Ferne oder im Büro zu arbeiten, sowie ein breites Paket an Bildungs- und Entwicklungsvorteilen. Der Rekrutierungsprozess umfasst Interviews mit der Personalabteilung sowie technische und Kundeninterviews.

  • Mindestens 6 Jahre Erfahrung im Bereich Daten und Analyse.
  • Mindestens 2 Jahre Erfahrung mit GCP .
  • Kenntnisse über GCP-Cloud-Dienste (BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow).
  • Erfahrung mit GIT.
  • Kenntnisse in SQL und mindestens einer der Programmiersprachen: Java, Python.
  • Kenntnisse der DWH-, Data Lake- und Lakehouse-Designprinzipien.
  • Ausgeprägte Analyse- und Problemlösungsfähigkeiten.
  • Sehr gute Kommunikation auf Englisch, sowohl mündlich als auch schriftlich.
  • Bevorzugt:

    • Erfahrung mit Docker, Kubernetes, Terraform.
    • Erfahrung mit Daten-Frameworks wie dbt, ETL-Tools wie Talend und Datenübertragungsplattformen wie Fivetran.
    • Kenntnisse über CI/CD-Prozesse.
    • Erfahrung in agiler Methodik.
    • Fähigkeit, sowohl selbstständig als auch im Team zu arbeiten.

    Das Angebot umfasst eine stabile Anstellung, die Möglichkeit, aus der Ferne oder im Büro zu arbeiten, sowie ein breites Paket an Bildungs- und Entwicklungsvorteilen. Der Rekrutierungsprozess umfasst Interviews mit der Personalabteilung sowie technische und Kundeninterviews.

    ,[Erstellung skalierbarer Frameworks zur Implementierung von Datenabrufprozessen, Data Warehouses, Data Lakes und Datenverarbeitungslösungen für neue und bestehende Kunden. ,Aufbau und Pflege effektiver, skalierbarer und zuverlässiger Datenarchitekturen für ,Analyse und Berichterstattung. ,Implementierung von Prozessen zur Überprüfung und Validierung der Datenqualität, um Genauigkeit und Konsistenz sicherzustellen. , Pflege und Aktualisierung von Dokumentationen und Datenwörterbüchern. , Arbeiten Sie mit funktionsübergreifenden Teams zusammen, um Geschäftsanforderungen in technische Lösungen umzusetzen. ] Kategorien: GCP, BigQuery, Cloud Functions, Cloud Run, Workflows, Dataflow, Git, SQL, Java, Python, DWH, Data Lake, Lakehouse, Docker, Kubernetes, Terraform, dbt, ETL, Fivetran, CI/CD. Tools: Agile . Weitere Vorteile: Sportabonnement, private Krankenversicherung, kleine Teams.

übersetzt von Google

keine Erfahrung
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren