N-iX sucht einen Senior Big Data Engineer zur Verstärkung unseres Teams! Unser Kunde ist ein führender Anbieter technischer Dienstleistungen, der sowohl Standard- als auch kundenspezifische Intranet- und internetbasierte Software- und Anwendungssysteme liefert. Aufgrund der steigenden Nachfrage nach internen digitalen Projekten möchte der Kunde bestimmte Entwicklungsaufgaben an strategische Partner auslagern. Der Kunde möchte strategische langfristige Beziehungen mit führenden Entwicklungspartne
N-iX sucht einen Senior Big Data Engineer zur Verstärkung unseres Teams! Unser Kunde ist ein führender Anbieter technischer Dienstleistungen, der sowohl Standard- als auch kundenspezifische Intranet- und internetbasierte Software- und Anwendungssysteme liefert. Aufgrund der steigenden Nachfrage nach internen digitalen Projekten möchte der Kunde bestimmte Entwicklungsaufgaben an strategische Partner auslagern. Der Kunde möchte strategische langfristige Beziehungen mit führenden Entwicklungspartnern aufbauen, um das Geschäftswachstum durch hochwertige und kostengünstige Lösungen zu beschleunigen. effiziente Softwareentwicklung. Die ausgewählten Partner unterstützen die Entwicklung robuster und skalierbarer Verbraucher- und Unternehmensanwendungen. Verantwortlichkeiten: Entwerfen und entwickeln Sie Datenpipelines und ETL-Prozesse mit Tools wie Apache Airflow, NiFi und dbt. Implementieren und verwalten Sie große, verteilte Daten Verarbeitungs-Frameworks. Arbeiten Sie eng mit Datenwissenschaftlern zusammen, um die Datenverfügbarkeit und -qualität für Modelle für maschinelles Lernen sicherzustellen. Optimieren Sie die Leistung von Datenspeicherlösungen, einschließlich SQL/Relational- (PostgreSQL, Oracle) und NoSQL-Datenbanken (MongoDB, Redis). Arbeiten Sie mit Streaming- und CDC-Technologien wie Kafka und Debezium, um die Datenverarbeitung in Echtzeit zu erleichtern. Nehmen Sie an allen Phasen von SDLC teil, von der Konzeption bis zur Bereitstellung, und konzentrieren Sie sich dabei auf CI/CD-Prinzipien mit Docker, Kubernetes und GitLab. Richten Sie Data Warehousing-Lösungen ein und verwalten Sie diese (Postgres, Oracle, Clickhouse). ) zur Unterstützung analytischer Anforderungen. Stellen Sie technisches Fachwissen und Best Practices für Data-Engineering-Lösungen bereit, einschließlich Daten-Governance und -Sicherheit. Anforderungen: Nachgewiesene Erfahrung (5+ Jahre) als Big Data Engineer oder eine ähnliche Rolle. Starkes Fachwissen in ETL-Tools: Apache Airflow, NiFi, Huawei ETL, ODI und dbt. Erfahrung mit Streaming- und Change-Data-Capture-Tools: Kafka, Debezium. Kenntnisse in SQL- und NoSQL-Datenbanken, einschließlich PostgreSQL, Oracle, MongoDB und Redis. Erfahrung mit Data Warehousing-Lösungen wie Clickhouse, Postgres, und Oracle.Vertrautheit mit cloudbasierten Datenverarbeitungsumgebungen und Containerisierungstools wie Docker und Kubernetes.Ausgezeichnete Problemlösungs- und Analysefähigkeiten mit Liebe zum Detail.Bachelor-Abschluss in Informatik, Informationssystemen oder einem verwandten Bereich.Obere Mittelstufe Englischniveau. Schön zu haben: Erfahrung mit privaten Cloud-Setups. Vertrautheit mit Datenwissenschaft und Frameworks für maschinelles Lernen wie TensorFlow, PyTorch. Kenntnisse von Datenvisualisierungstools: QlikView, Tableau, Apache Superset, Grafana. Wir bieten: Flexibles Arbeitsformat – remote , im Büro oder flexibel. Ein wettbewerbsfähiges Gehalt und ein gutes Vergütungspaket. Personalisierte Karriereentwicklung. Tools zur beruflichen Weiterentwicklung (Mentoring-Programm, Tech-Vorträge und Schulungen, Kompetenzzentren und mehr).
Mehr anzeigen
Weniger anzeigen
Посадовий рівеньNicht zutreffend
Art der Beschäftigung
Vollzeit
Arbeitspflichten
Maschinenbau
Branchen
Lebensmittel- und Getränkedienstleistungen, Lebensmittel- und Getränkeherstellung und -herstellung