Nächste Arbeit

Leitender Dateningenieur (Azure Data Factory, Ukraine) #14712 in Capgemini Engineering

21 Oktober

33 Ansichten

Capgemini Engineering

Capgemini Engineering

0
0 Bewertungen
keine Erfahrung
Vollzeitarbeit

übersetzt von Google

Zweck der Stelle: Wir suchen einen erfahrenen Senior Data Engineer mit mindestens 5 Jahren Erfahrung in der Datenaufnahme, -verarbeitung und -verwaltung in Cloud-Umgebungen, insbesondere im Azure-Ökosystem. Der ideale Kandidat wird agile Teams leiten und betreuen und die Entwicklung und Optimierung unserer Dateninfrastruktur vorantreiben. Hauptaufgaben und Verantwortlichkeiten: Entwerfen, entwickeln und verwalten Sie komplexe Datenpipelines mithilfe von Azure Data Factory (ADF). Leiten Sie die B
Zweck der Stelle: Wir suchen einen erfahrenen Senior Data Engineer mit mindestens 5 Jahren Erfahrung in der Datenaufnahme, -verarbeitung und -verwaltung in Cloud-Umgebungen, insbesondere im Azure-Ökosystem. Der ideale Kandidat wird agile Teams leiten und betreuen und die Entwicklung und Optimierung unserer Dateninfrastruktur vorantreiben. Hauptaufgaben und Verantwortlichkeiten: Entwerfen, entwickeln und verwalten Sie komplexe Datenpipelines mithilfe von Azure Data Factory (ADF). Leiten Sie die Bemühungen zur Verarbeitung, Transformation und Optimierung von Daten mit Databricks, Python und SQL. Arbeiten Sie eng mit Produktbesitzern und Technologieführern zusammen, um in agilen Sprints fortschrittliche Datenlösungen zu entwickeln. Überwachen Sie die Speicherung und Organisation von Daten in Azure Storage-Konten. Automatisieren und verbessern Sie Arbeitsabläufe, um die Effizienz der Datenerfassung und -verarbeitung zu maximieren. Etablieren und Durchsetzen von Best Practices in allen Datenpipelines. Mentor von Dateningenieuren mittlerer Ebene und Beitrag zur Entwicklung von Teamfähigkeiten. Ausbildung, Fähigkeiten und Erfahrung MÜSSEN: Bachelor-Abschluss in Informatik, Informationssystemen oder einem verwandten Bereich. Mindestens 3 Jahre Erfahrung mit Azure Data Factory (ADF) und der Orchestrierung komplexer Datenpipelines. Umfangreiche Kenntnisse in Databricks, Python und SQL. Umfangreiche Erfahrung mit Azure DevOps, Datenformaten wie Parquet und Datenübertragungsprotokollen wie SFTP. Nachgewiesene Führung in agilen Teams unter Verwendung von Scrum-Methoden. Bachelor-Abschluss in Informatik, Informationssystemen oder einem verwandten Bereich (Master-Abschluss ist von Vorteil). Englischkenntnisse auf B2-Niveau oder höher. Gut, wenn Sie fortgeschrittene Erfahrung mit Datenintegration oder ETL-Tools wie Informatica PowerCenter, Talend, SSIS, Nifi oder ähnlichen Plattformen haben. Vertrautheit mit Projektmanagement-Tools wie Jira, Confluence und erweiterten Planern wie Control-M. Umfangreiche Kenntnisse über Datensicherheitspraktiken und Datenverwaltung in Cloud-Umgebungen. Zusätzliche Fähigkeiten. Außergewöhnliche Kommunikations- und Führungsfähigkeiten. Proaktiv bei der Förderung von Innovationen und der Verbesserung von Daten-Workflows. Fähigkeit zur effektiven Zusammenarbeit mit funktionsübergreifenden Teams. Engagement für kontinuierliches Lernen und Bleiben über Branchentrends auf dem Laufenden. Mehr anzeigen Weniger anzeigen Посадовий рівень Starrer Wochentag Typ зайнятості Erster Robotertag Weitere Informationen Informationstechnologie Galuzi ІТ-Folge zur ІТ-Beratung

übersetzt von Google

keine Erfahrung
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren