Nächste Arbeit

DevOps-Dateningenieur in Reply.io

Gepostet vor über 30 Tagen

199 Ansichten

Reply.io

Reply.io

0
0 Bewertungen
keine Erfahrung

übersetzt von Google

6. September 2024 DevOps Data Engineer віддалено Wir sind ein Produktunternehmen, das auf dem globalen Markt tätig ist. Im Moment sind wir ein Team aus über 80 großartigen Ukrainern, die vom ersten Tag an zu 100 % aus der Ferne arbeiten. Wir haben über 4.000 Kunden auf der ganzen Welt, die täglich unsere Plattform nutzen. Und jetzt suchen wir einen großartigen Kundendienstmitarbeiter für unser großartiges Team :) Als DevOps Data Engineer sollten Sie eine Leidenschaft für die Automatis

6. September 2024

DevOps Data Engineer

віддалено

Wir sind ein Produktunternehmen, das auf dem globalen Markt tätig ist. Im Moment sind wir ein Team aus über 80 großartigen Ukrainern, die vom ersten Tag an zu 100 % aus der Ferne arbeiten. Wir haben über 4.000 Kunden auf der ganzen Welt, die täglich unsere Plattform nutzen. Und jetzt suchen wir einen großartigen Kundendienstmitarbeiter für unser großartiges Team :)

Als DevOps Data Engineer sollten Sie eine Leidenschaft für die Automatisierung von Aufgaben mit Python und die Aufrechterhaltung nahtloser Datenabläufe haben. Sie schreiben Skripte, entwickeln Pipeline-Jobs in DataBricks und beheben Infrastrukturprobleme. Zu Ihren Aufgaben gehört die Verwaltung der KI- und Dateninfrastruktur, die Optimierung von Analyseworkflows und die Gewährleistung der Datenintegrität und -sicherheit. Sie arbeiten mit anderen Ingenieuren zusammen, überwachen die Systemleistung und verbessern kontinuierlich Automatisierungsprozesse. Wenn Sie es lieben, über die neuesten Entwicklungen in den Bereichen DevOps und Data Engineering auf dem Laufenden zu bleiben, ist diese Rolle genau das Richtige für Sie.


Anforderungen

• 1+ Jahre Erfahrung in DevOps oder verwandten Rollen

• Mittlere Kenntnisse von oder Bereitschaft, Python Core kurzfristig zu erlernen

• Kenntnisse auf mittlerem Niveau in:
– GitHub und Git
– Datenentwicklungstools und -bibliotheken, einschließlich Pandas und PySpark
– Datenbanken (DB), einschließlich Abfragen und Verwalten von Daten
– Apache Airflow für das Workflow-Management
– DataBricks für die Verwaltung von Datenpipelines und Jobs
– Elasticsearch und Kibana

• Starke Fähigkeiten zur Fehlerbehebung mit der Fähigkeit, Infrastrukturprobleme zu diagnostizieren und zu beheben

• Gutes Verständnis für die Wartung bestehender Infrastruktur und interner Analysen

• Fähigkeit, unabhängig und kollaborativ innerhalb eines Teams zu arbeiten

• Effektive Kommunikationsfähigkeiten, sowohl schriftlich als auch mündlich

• Proaktive und detailorientierte Denkweise

• Leidenschaft für kontinuierliches Lernen und auf dem neuesten Stand zu bleiben Technologien

Verantwortlichkeiten

Schreiben von Skripten in Python, um verschiedene Aufgaben und Prozesse zu automatisieren
• Entwickeln und Verwalten von Pipeline-Jobs in DataBricks < br/>• Fehlerbehebung und Behebung von Problemen im Zusammenhang mit der Infrastruktur und Datenverarbeitung
• Pflege der DATEN- und Vertriebs-KI-Infrastruktur und -Prozesse
• Pflege der vorhandenen Infrastruktur, um einen reibungslosen Betrieb sicherzustellen
• Verwaltung interner Analyse-Workflows im Rahmen der Überwachung von Apache Airflow
• Unterstützung und Aufrechterhaltung von Jobs in DataBricks, um eine effiziente Datenverarbeitung sicherzustellen
• Zusammenarbeit mit anderen Teammitgliedern zur Optimierung von Datenworkflows
• Überwachung der Systemleistung und Implementierung notwendiger Verbesserungen
• Gewährleistung der Datenintegrität und -sicherheit auf allen Systemen und Plattformen
• Dokumentation von Prozessen und Pflege umfassender Aufzeichnungen über Änderungen und Aktualisierungen
• Teilnahme an Codeüberprüfungen und Bereitstellung konstruktiven Feedbacks
• Unterstützung bei der Bereitstellung neuer Funktionen und Updates
• Kontinuierliche Verbesserung von Automatisierungsskripten und -prozessen für mehr Effizienz und Zuverlässigkeit
• Bleiben Sie über die neuesten Entwicklungen in den Bereichen DevOps und Data Engineering auf dem Laufenden

Wir bieten

• WorKönig mit dem führenden Produkt auf dem US-amerikanischen und globalen Markt
• Echte Chance für berufliches Wachstum und Selbstverbesserung
• Arbeiten Sie von zu Hause oder im Co-Working-Bereich aus (wir übernehmen die Co-Working-Kosten)
• Wir stellen Ihnen die modernste Ausstattung für Ihr angenehmes Arbeiten zur Verfügung
• Zugang zu interner Geschäftsliteratur, Schulungen und Seminaren
• Unbegrenzte Anzahl von Krankheitsausfällen
• Tolle Kollegen und eine angenehme Arbeitsatmosphäre

Seit Beginn der russischen Invasion fließen alle unsere Gewinne in die Streitkräfte der Ukraine. Bisher haben wir mehr als 7 Millionen UAH gespendet und sind bestrebt, unser Unternehmen auszubauen, um noch mehr zu helfen. Außerdem sind wir Teil des KOLOcи-Programms von KOLO (koloua.com/kolossus), wo wir monatlich 10.000 US-Dollar allein an sie spenden.

Helfen Sie uns, den Streitkräften der Ukraine dabei zu helfen, Russland in den Arsch zu treten!

übersetzt von Google

keine Erfahrung
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren