Zweck der Stelle: Wir suchen einen versierten Dateningenieur zur Verstärkung unseres wachsenden Teams von Analyseexperten. Der neue Mitarbeiter wird für die Erweiterung und Optimierung unserer Daten- und Datenpipeline-Architektur sowie für die Optimierung des Datenflusses und der Datenerfassung für funktionsübergreifende Teams verantwortlich sein. Der ideale Kandidat ist ein erfahrener Data-Pipeline-Builder und Data-Wrangler, der Freude daran hat, Datensysteme zu optimieren und von Grund auf auf
Zweck der Stelle: Wir suchen einen versierten Dateningenieur zur Verstärkung unseres wachsenden Teams von Analyseexperten. Der neue Mitarbeiter wird für die Erweiterung und Optimierung unserer Daten- und Datenpipeline-Architektur sowie für die Optimierung des Datenflusses und der Datenerfassung für funktionsübergreifende Teams verantwortlich sein. Der ideale Kandidat ist ein erfahrener Data-Pipeline-Builder und Data-Wrangler, der Freude daran hat, Datensysteme zu optimieren und von Grund auf aufzubauen. Der Dateningenieur unterstützt unsere Softwareentwickler, Datenbankarchitekten, Datenanalysten und Datenwissenschaftler bei Dateninitiativen und stellt sicher, dass die optimale Datenbereitstellungsarchitektur in allen laufenden Projekten konsistent ist. Sie müssen eigenverantwortlich arbeiten und sich mit der Unterstützung der Datenanforderungen mehrerer Teams, Systeme und Produkte auskennen. Der richtige Kandidat wird von der Aussicht begeistert sein, die Datenarchitektur unseres Unternehmens zu optimieren oder sogar neu zu gestalten, um unsere Nettoproduktgeneration und Dateninitiativen zu unterstützen. Hauptaufgaben und Verantwortlichkeiten: Erstellen und pflegen Sie eine optimale Datenpipeline-Architektur. Stellen Sie große, vollständige Datensätze zusammen, die den Anforderungen entsprechen funktionale / nicht funktionale Geschäftsanforderungen. Identifiziert, entworfen und implementierte interne Prozessverbesserungen: Automatisierung manueller Prozesse, Optimierung der Datenbereitstellung, Neugestaltung der Infrastruktur für mehr Skalierbarkeit, Leistung usw. Bauen Sie die Infrastruktur auf, die für eine optimale Extraktion, Transformation und das Laden von Daten aus einer Vielzahl von Daten erforderlich ist Quellen mithilfe von SQL- und Big-Data-Technologien. Erstellen Sie Analysetools, die die Datenpipeline nutzen, um umsetzbare Einblicke in die Kundenakquise, das Umsatzmanagement, die betriebliche Effizienz und andere wichtige Kennzahlen zur Geschäftsleistung zu liefern. Arbeiten Sie mit Stakeholdern zusammen, einschließlich der Führungs-, Produkt-, Daten- und Designteams, um bei datenbezogenen technischen Problemen zu helfen und ihre Dateninfrastrukturanforderungen zu unterstützen. Erstellen Sie Datentools für Analyse- und Datenwissenschaftler-Teammitglieder, die sie beim Aufbau und der Optimierung unserer Angebote unterstützen. Arbeiten Sie mit Daten- und Analyseexperten streben nach größerer Funktionalität in unseren Datensystemen. Ausbildung, Fähigkeiten und Erfahrung MÜSSEN HABEN: Erfahrung in der Arbeit mit ADF, Notebooks, Databricks, Databricks Delta Live Tables, Warehousing-Technologien und zugehörigen Mustern. Verständnis für PAAS-Dienste in Bezug auf Daten, Analysen, und Integrationsschnittstellen – Databricks usw. Verständnis datenbezogener Sicherheitsherausforderungen und Tools mit bestimmten Technologien (z. B. Databricks) Erfahrung mit Programmier- und Skriptsprachen: Python-Codebasis für ETL
Mehr anzeigen
Weniger anzeigen
Посадовий рівень
Starrer Wochentag
Typ зайнятості
Erster Robotertag
Weitere Informationen
Informationstechnologie
GaluziIT-Dienstleistungen und IT-Beratung