3. September 2024
Middle Data Engineer (DP) Львів, Івано-Frankreich, Луцьк, Тернопіль, Черкаси, Чернівци, Варшава (Polen), Krakau (Polen), Prag хія), віддалено Wir suchen eine motivierte und eigenverantwortliche Person zur Verstärkung unseres dynamischen Teams. Unser Team legt großen Wert auf die Freiheit und Unabhängigkeit der Mitarbeiter bei der Entscheidungsfindung sowie auf den Wunsch, die Wünsche der Kunden genau zu verstehen und die Ursache des Problems zu ermitteln. Wir glauben,
3. September 2024
Middle Data Engineer (DP)
Львів, Івано-Frankreich, Луцьк, Тернопіль, Черкаси, Чернівци, Варшава (Polen), Krakau (Polen), Prag хія), віддалено
Wir suchen eine motivierte und eigenverantwortliche Person zur Verstärkung unseres dynamischen Teams. Unser Team legt großen Wert auf die Freiheit und Unabhängigkeit der Mitarbeiter bei der Entscheidungsfindung sowie auf den Wunsch, die Wünsche der Kunden genau zu verstehen und die Ursache des Problems zu ermitteln. Wir glauben, dass Menschen, die diese Denkweise annehmen, dazu bestimmt sind, als anerkannte Fachleute und treibende Kräfte in der Datenentwicklung in der Ukraine erfolgreich zu sein.
KUNDE Unser Kunde ist ein von der Community betriebener Modemarktplatz mit über 30 Millionen registrierten Nutzern in mehr als 150 Ländern. Es ist eine Plattform, um den persönlichen Stil zu entdecken und zu feiern und gleichzeitig nachhaltige Mode zu fördern, indem die Lebensdauer von Millionen von Kleidungsstücken verlängert wird. Unser Kunde wurde 2011 gegründet und hat seinen Hauptsitz in London sowie Niederlassungen in Manchester und New York. Er beschäftigt rund 400 Mitarbeiter. Im Jahr 2021 wurde es eine hundertprozentige Tochtergesellschaft von Etsy, operiert aber weiterhin unabhängig. Das Unternehmen setzt sich für Vielfalt, Inklusion und faire Rekrutierungsprozesse ein und unterstützt Visa-Sponsoring für bestimmte Rollen und Fähigkeiten.
Stellenbeschreibung
- Mitarbeit bei Untersuchungen neuer Technologien und komplexer Lösungsdesigns, Unterstützung einer Innovationskultur durch Berücksichtigung von Sicherheitsfragen, Skalierbarkeit und Zuverlässigkeit, mit Schwerpunkt auf dem Ausbau unserer ETL-Prozesse
- Arbeiten mit einem modernen Datenstapel, Entwicklung gut gestalteter technischer Lösungen und robustem Code sowie Implementierung von Data-Governance-Prozessen
< li> Arbeiten und professionelle Kommunikation mit dem Team des Kunden - Übernahme der Verantwortung für die Bereitstellung wichtiger Lösungsfunktionen
- Teilnahme am Anforderungserfassungs- und Klärungsprozess, Vorschlag optimaler Architekturstrategien und Leitung der Datenarchitektur Implementierung
- Entwickeln von Kernmodulen und -funktionen, Entwerfen skalierbarer und kostengünstiger Lösungen
- Durchführen von Codeüberprüfungen, Schreiben von Unit- und Integrationstests
- Skalieren des verteilten Systems und der Infrastruktur Auf die nächste Ebene
- Aufbau einer Datenplattform mit der Leistung des AWS-Cloud-Anbieters
Qualifikationen
- 3 + Jahre starke Erfahrung mit Python als Programmiersprache für Datenpipelines und verwandte Tools
- Vertrautheit und Verständnis der verteilten Datenverarbeitung mit Spark zur Datenpipeline-Optimierung und Überwachung von Arbeitslasten
- Nachgewiesene starke Erfolgsbilanz Aufzeichnung der Erstellung von Datentransformationen mithilfe von Datenerstellungstools
- Hervorragende Implementierung von Best Practices für Datenmodellierung und Data Warehousing
- Erfahrung in der Arbeit mit Looker als Entwickler (kein Benutzer) und mit LookML < /li>
- Guter Hintergrund im Datenbereich – Verständnis dafür, wie Dateningenieure, Datenwissenschaftler, Analyseingenieure und Analysten arbeiten, um eng mit ihnen zusammenarbeiten und ihre Bedürfnisse verstehen zu können
- Gutes Englisch in Wort und Schrift Kommunikationsfähigkeiten
- Vertrautheit mit Software-Engineering am bestenPraktiken: Testen, PRs, Git, Codeüberprüfungen, Codedesign, Veröffentlichung
WÄRE EIN PLUS
- Datenzertifizierungen in Datentechnik oder Datenanalyse
- 2 oder mehr Jahre Erfahrung mit Databricks und Airflow
- Erfahrung mit DAGs und Orchestrierungstools
- Erfahrung in der Entwicklung von Snowflake-gesteuerten Data Warehouses
- Erfahrung in der Entwicklung ereignisgesteuerter Datenpipelines ______________________________________________________________
Unser Kunde ist ein öffentlicher Modemarktplatz mit mehr als 30 Millionen registrierten Nutzern in mehr als 150 Ländern der Welt. Es ist eine Plattform zum Finden und Hervorheben des persönlichen Stils, der zur nachhaltigen Entwicklung der Mode beiträgt, indem er die Lebensdauer von Millionen Kleidungsstücken verlängert. Das 2011 gegründete Unternehmen unseres Kunden hat seinen Hauptsitz in London und Niederlassungen in Manchester und New York und beschäftigt rund 400 Mitarbeiter. Im Jahr 2021 wurde es eine hundertprozentige Tochtergesellschaft von Etsy, operiert aber weiterhin unabhängig. Das Unternehmen setzt sich für Vielfalt, Inklusion und faire Rekrutierungsprozesse ein und unterstützt Visa-Sponsoring für bestimmte Rollen und Fähigkeiten. Wir suchen eine motivierte und zielorientierte Persönlichkeit zur Verstärkung unseres dynamischen Teams. Unser Team legt großen Wert auf die Freiheit der Mitarbeiter, die Unabhängigkeit bei der Entscheidungsfindung und den Wunsch, Kundenwünsche tiefgreifend zu verstehen und die Ursache des Problems zu identifizieren. Wir glauben, dass Menschen, die diese Denkweise teilen, dazu bestimmt sind, als anerkannte Fachleute und treibende Kräfte der Datenentwicklung in der Ukraine erfolgreich zu sein. Verantwortlichkeiten - Mitwirkung bei der Erforschung neuer Technologien und der Entwicklung komplexer Lösungen, Unterstützung einer Innovationskultur unter Berücksichtigung von Fragen der Sicherheit, Skalierbarkeit und Zuverlässigkeit, mit Schwerpunkt auf dem Aufbau unserer ETL-Prozesse
- Arbeiten mit einem modernen Datenstack, Entwicklung durchdachter technischer Lösungen und zuverlässigem Code sowie Implementierung von Datenverwaltungsprozessen
< li> Professionelles Arbeiten und Kommunizieren mit dem Team des Kunden - Verantwortung für die Implementierung der Hauptfunktionen der Lösung
- Mitwirkung am Prozess der Erfassung und Klärung von Anforderungen, Vorschlag optimaler Architekturstrategien und Leitung der Implementierung der Datenarchitektur
- Entwicklung grundlegender Module und Funktionen, Entwurf skalierbarer und wirtschaftlich effektiver Lösungen
- Durchführung von Codeüberprüfungen, Schreiben von Unit- und Integrationstests
- Skalierung das verteilte System und die Infrastruktur auf die nächste Ebene
- Aufbau einer Datenplattform unter Nutzung der Fähigkeiten des Cloud-Anbieters AWS < p> Anforderungen
- 3+ Jahre Erfahrung mit Python als Datenpipeline-Programmiersprache und zugehörigen Tools
- Kenntnisse und Verständnis der verteilten Datenverarbeitung mit Spark zur Optimierung von Datenpipelines und Überwachung von Arbeitslasten
- Nachgewiesene Erfolgsbilanz von Erstellen von Datentransformationen mithilfe von Datenarchitekturtools
- Hervorragende Implementierung von Best Practices für Datenmodellierung und Data Warehousing
- Erfahrung mit Looker auf Entwicklerebene (Nicht-Benutzer) und mit LookML
- Umfangreiche Erfahrung inund Data Domain – verstehen, wie Dateningenieure, Datenwissenschaftler, Analyseingenieure und Analytiker arbeiten, um eng mit ihnen zusammenarbeiten und ihre Bedürfnisse verstehen zu können
- Gute Englischkenntnisse in Wort und Schrift
- Kenntnisse von Software-Engineering-Best Practices: Testen, PR, Git, Code-Review, Code-Design und -Release
Ein Vorteil wäre:
< li>Zertifizierungen in Data Engineering oder Data Analytics - 2 oder mehr Jahre Erfahrung mit Databricks und Airflow
- Erfahrung mit DAG und Orchestrierungstools
- Erfahrung in der Datenentwicklung Warehouses auf Basis von Snowflake
- Erfahrung in der Entwicklung ereignisgesteuerter Datenpipelines