CIGROUPEMEA sucht einen erfahrenen Dateningenieur zur Verstärkung unseres Teams. Der ideale Kandidat verfügt über mehr als 5 Jahre Erfahrung als Dateningenieur in einer ähnlichen Rolle und beherrscht SQL und Python. Der Kandidat ist für den Entwurf und die Implementierung umfassender Datenpipelines für eine Vielzahl von Abläufen verantwortlich (Systemübergreifende Datenintegration, ETL-Prozesse, Infrastrukturen für maschinelles Lernen). Der Kandidat muss Erfahrung mit Datenmodellierung, Lagerhal
CIGROUPEMEA sucht einen erfahrenen Dateningenieur zur Verstärkung unseres Teams. Der ideale Kandidat verfügt über mehr als 5 Jahre Erfahrung als Dateningenieur in einer ähnlichen Rolle und beherrscht SQL und Python. Der Kandidat ist für den Entwurf und die Implementierung umfassender Datenpipelines für eine Vielzahl von Abläufen verantwortlich (Systemübergreifende Datenintegration, ETL-Prozesse, Infrastrukturen für maschinelles Lernen). Der Kandidat muss Erfahrung mit Datenmodellierung, Lagerhaltung und dem Aufbau von Pipelines haben. Darüber hinaus muss der Kandidat über Erfahrung in der kontinuierlichen Integration und kontinuierlichen Bereitstellung großer skalierbarer Datensysteme verfügen. Aufgaben: Entwerfen und implementieren Sie robuste und skalierbare Datenpipelines mit Apache Kafka, um zuverlässige Datenaufnahme- und Streaming-Funktionen sicherzustellen. Entwickeln und optimieren Sie SQL-Abfragen und gespeicherte Prozeduren für Datentransformation und -aggregation, eng mit Datenanalysten und Wissenschaftlern zusammenarbeiten. Nutzen Sie Python, um ETL-Prozesse (Extrahieren, Transformieren, Laden) für die effiziente Verarbeitung großer Datenmengen zu erstellen und zu verwalten. Implementieren und verwalten Sie die Datenverarbeitung Workflows in Databricks unter Nutzung der verteilten Rechenfunktionen und erweiterten Analysefunktionen. Entwerfen und pflegen Sie Delta-Tabellen, um eine effiziente Datenversionierung, -speicherung und -abrufung für analytische Workloads zu ermöglichen. Arbeiten Sie mit Geschäftsinteressenten zusammen, um Datenanforderungen zu erfassen und Datenmodelle für eine effektive Berichterstellung und Visualisierung zu entwerfen in Power BI.Implementieren Sie Datenintegrations- und Synchronisierungslösungen mithilfe von Azure SQL und stellen Sie so einen nahtlosen Datenfluss zwischen lokalen und Cloud-Umgebungen sicher.Gewährleistung der Sicherheit, des Datenschutzes und der Compliance von Datensystemen unter Einhaltung branchenüblicher Best Practices und Organisationsrichtlinien.Überwachen und beheben Sie Fehler in der Dateninfrastruktur und in Pipelines, indem Sie Leistungs- und Skalierbarkeitsprobleme proaktiv identifizieren und lösen. Arbeiten Sie mit funktionsübergreifenden Teams zusammen, um die Datenqualität, -genauigkeit und -integrität während des gesamten Datenlebenszyklus sicherzustellen. Bleiben Sie über neue Technologien und Branchentrends in der Datentechnik auf dem Laufenden und geben Sie Empfehlungen für kontinuierliche Verbesserung. Anforderungen: Bachelor- oder Master-Abschluss in Informatik, Informationssystemen oder einem verwandten Bereich. Gute Kenntnisse in Apache Kafka, SQL und Python, mit praktischer Erfahrung in Entwerfen und Entwickeln von Datenpipelines. Erfahrung mit Databricks für die Verarbeitung und Analyse großer Datenmengen, einschließlich Spark-Programmierung und Clusterverwaltung. Kenntnisse in der Arbeit mit Delta Tables für Datenversionierung, -optimierung und -zuverlässigkeit. Vertrautheit mit Power BI für Datenvisualisierung und Berichterstellung, interaktive Erstellung Dashboards und Berichte. Praktische Kenntnisse von Azure SQL für die Datenintegration und -synchronisierung in lokalen und Cloud-Umgebungen. Solides Verständnis von Linux-basierten Betriebssystemen und Shell-Scripting. Starke Problemlösungs- und Analysefähigkeiten mit der Fähigkeit um komplexe datenbezogene Probleme zu analysieren und effektive Lösungen bereitzustellen. Hervorragende Kommunikations- und Kollaborationsfähigkeiten mit der Fähigkeit, effektiv in funktionsübergreifenden Teams zu arbeiten. Nachgewiesene Fähigkeit, mehrere Aufgaben und Prioritäten in einer schnelllebigen und dynamischen Umgebung zu verwalten. Unser Team ist komponiertbestehend aus Experten auf ihrem Gebiet, denen es am Herzen liegt, qualitativ hochwertige Arbeit zu liefern und eine positive Arbeitskultur aufrechtzuerhalten. Wir legen Wert auf Innovation, Teamarbeit und persönliches Wachstum. Als erfahrener Data Engineer haben Sie die Möglichkeit, maßgeblichen Einfluss auf unsere Projekte zu nehmen und zum Erfolg unserer Organisation beizutragen. Wenn Sie bereit sind, spannende Herausforderungen anzunehmen und eine Kultur der Exzellenz zu fördern, empfehlen wir Ihnen, sich zu bewerben. Was wir bieten: Arbeiten Sie von überall auf der Welt aus mit einem vollständig remote arbeitenden Team und genießen Sie einen gemeinsam vereinbarten Zeitplan, der Ihren Anforderungen entspricht . (Kernarbeitszeiten in den USA) Arbeiten Sie hauptsächlich mit in den USA ansässigen Kollegen zusammen und haben Sie die Möglichkeit, mit Menschen mit unterschiedlichem Hintergrund und unterschiedlichen Fähigkeiten zusammenzuarbeiten. Nutzen Sie Ihre Fähigkeiten und Ihr Fachwissen, um einen erheblichen Einfluss auf die Durchführung von Projekten in unserem Unternehmen zu haben. Arbeiten Sie in einem Ein unterstützendes Umfeld, das Ihren Beitrag wertschätzt und Ihnen die Ressourcen und Schulungen bietet, die Sie benötigen, um sich beruflich weiterzuentwickeln. Genießen Sie eine 40-Stunden-Arbeitswoche, die Ihnen eine gesunde Work-Life-Balance und die Zeit bietet, Ihre persönlichen und beruflichen Ziele außerhalb zu verfolgen der Arbeit.
Mehr anzeigen
Weniger anzeigen
Посадовий рівень
Starrer Wochentag
Typ зайнятості
Vertragsabschluss
Weitere Informationen
Informationstechnologie
Galuzi
Informationstechnologie und Dienstleistungen