Rolle: Leitender DateningenieurStandort: Rumänien, Ukraine (Remote)Jahre Erfahrung: 5–7 JahreBezahlung: 84.000–90.000 US-Dollar Erforderliche Fähigkeiten: Python, SQL, Databricks, Snowflake, ETL, AWS, GCP, Airbyte, Postgres, Kafka, Sisense, CircleCI , Grafana, Kubernetes (EKS) Erforderliche Sprache: Englisch C1 LevelStellenbeschreibungDies Der Schwerpunkt dieser Rolle liegt auf der Schaffung robuster, skalierbarer und sicherer Data-Lake-, Aufnahme- und Verteilungssysteme. Als Führungskraft arbei
Rolle: Leitender DateningenieurStandort: Rumänien, Ukraine (Remote)Jahre Erfahrung: 5–7 JahreBezahlung: 84.000–90.000 US-Dollar Erforderliche Fähigkeiten: Python, SQL, Databricks, Snowflake, ETL, AWS, GCP, Airbyte, Postgres, Kafka, Sisense, CircleCI , Grafana, Kubernetes (EKS) Erforderliche Sprache: Englisch C1 LevelStellenbeschreibungDies Der Schwerpunkt dieser Rolle liegt auf der Schaffung robuster, skalierbarer und sicherer Data-Lake-, Aufnahme- und Verteilungssysteme. Als Führungskraft arbeiten Sie im gesamten Datenstapel und arbeiten mit funktionsübergreifenden Teams zusammen und setzen hohe Standards in Bezug auf Datenverwaltung, -qualität und -sicherheit. Hauptaufgaben: Data Lake und Pipelines: Entwerfen und implementieren Sie Funktionen für die Aufnahme, Anreicherung und Transformation. Gewährleistung von Verfügbarkeit, Zuverlässigkeit und Skalierbarkeit.Systemdesign und Projektausrichtung: Systemdesign vorantreiben, Ausrichtung und Durchführbarkeit für Projekte teamübergreifend schaffen.Vollständiger Datenstapel: Arbeit über ETL-Prozesse, Data Warehousing, Visualisierung und Cloud-Infrastruktur hinweg.Datenverwaltung und Governance: Definieren und implementieren Sie Best Practices, um Datenqualität, Sicherheit und Konsistenz sicherzustellen. Optimierung: Entwickeln und optimieren Sie Spark-Jobs, Notebooks und Pipelines in Databricks. Zusammenarbeit und Mentoring: Arbeiten Sie mit dem Chefarchitekten zusammen, betreuen Sie Ingenieure und unterstützen Sie die DataOps-Kultur .Stakeholder-Kommunikation: Kommunizieren Sie Datenstrategien und -pläne an Stakeholder in der gesamten Organisation. Erforderliche Fähigkeiten und Erfahrungen. Data Engineering: Mehr als 5 Jahre Erfahrung in der Gestaltung und Implementierung von Datenpipelines mit Databricks und Python (oder PySpark).SQL & Visualisierung: Kenntnisse in SQL- und Visualisierungstools wie Sisense oder Power BI.Cloud-Plattformen: Erfahrung mit AWS oder GCP, Schwerpunkt auf Cloud-nativem Data Engineering.ETL und Data Governance: Fachkenntnisse in ETL-Prozessen und Daten-Governance-Prinzipien um Qualität und Konsistenz aufrechtzuerhalten.Must-Have:Python, SQL, Databricks, ETL-Prozesse AWS oder GCPVisualisierungstools (Sisense oder ähnlich)Airbyte oder vergleichbare ETL-ToolsTerraform für die Umgebung Vorlagen, CI/CD-Tools (CircleCI, GitHub Actions) Schön zu haben: Kedro, Kafka und Data Mesh DesignPostgres, Terraform, CircleCI, GrafanaKenntnisse über Microservices und DatenmodellierungZusätzliche FähigkeitenTechnisch: Entwerfen großer Datensysteme, SQL/NoSQL-Datenbanken und Vertrautheit mit Streaming-Dienste wie Kafka. Soft Skills: Starke Fähigkeiten im Kundenkontakt, strategische Planung und Stakeholder-Management. Unsere Tech StackPython, SQL, Databricks, Snowflake, Airbyte, Postgres, Kafka, Sisense, CircleCI, Grafana, Kubernetes (EKS) (Kenntnisse über veraltete Systeme wie Druid oder Datadog sind von Vorteil)
Mehr anzeigen
Weniger anzeigen
Посадовий рівень
Starrer Wochentag
Typ зайнятості
Erster Robotertag
Weitere Informationen
InformationstechnologieBranchen
IT-Dienstleistungen und IT-Beratung