Nächste Arbeit

Middle\Senior Data Engineer (DP) in Sigma Software

Gepostet vor über 30 Tagen

161 Ansichten

Sigma Software

Sigma Software

0
0 Bewertungen
keine Erfahrung
Kiew
Vollzeitarbeit

übersetzt von Google

Wir suchen eine motivierte und eigenverantwortliche Person zur Verstärkung unseres dynamischen Teams. Unser Team legt großen Wert auf die Freiheit und Unabhängigkeit der Mitarbeiter bei der Entscheidungsfindung sowie auf den Wunsch, die Wünsche der Kunden genau zu verstehen und die Ursache des Problems zu ermitteln. Wir glauben, dass Menschen, die diese Denkweise annehmen, dazu bestimmt sind, als anerkannte Fachleute und treibende Kräfte in der Datenentwicklung in der Ukraine erfolgreich zu sein

Wir suchen eine motivierte und eigenverantwortliche Person zur Verstärkung unseres dynamischen Teams. Unser Team legt großen Wert auf die Freiheit und Unabhängigkeit der Mitarbeiter bei der Entscheidungsfindung sowie auf den Wunsch, die Wünsche der Kunden genau zu verstehen und die Ursache des Problems zu ermitteln. Wir glauben, dass Menschen, die diese Denkweise annehmen, dazu bestimmt sind, als anerkannte Fachleute und treibende Kräfte in der Datenentwicklung in der Ukraine erfolgreich zu sein.

KUNDE
Unser Kunde ist ein von der Community betriebener Modemarktplatz mit über 30 Millionen registrierten Nutzern in mehr als 150 Ländern. Es ist eine Plattform, um den persönlichen Stil zu entdecken und zu feiern und gleichzeitig nachhaltige Mode zu fördern, indem die Lebensdauer von Millionen von Kleidungsstücken verlängert wird. Unser Kunde wurde 2011 gegründet und hat seinen Hauptsitz in London sowie Niederlassungen in Manchester und New York. Er beschäftigt rund 400 Mitarbeiter. Im Jahr 2021 wurde es eine hundertprozentige Tochtergesellschaft von Etsy, operiert aber weiterhin unabhängig. Das Unternehmen setzt sich für Vielfalt, Inklusion und faire Rekrutierungsprozesse ein und unterstützt Visa-Sponsoring für bestimmte Rollen und Fähigkeiten.

Jobbeschreibung

  • Beitrag zu neuen Technologieuntersuchungen und komplexen Lösungsdesigns, Unterstützung einer Innovationskultur durch Berücksichtigung von Fragen der Sicherheit, Skalierbarkeit und Zuverlässigkeit, mit Schwerpunkt auf dem Ausbau unserer ETL-Prozesse
  • Arbeiten mit modernen Daten Stack, Entwicklung gut konzipierter technischer Lösungen und robustem Code sowie Implementierung von Data-Governance-Prozessen
  • Arbeit und professionelle Kommunikation mit dem Team des Kunden
  • Übernahme der Verantwortung für die Bereitstellung wichtiger Lösungsfunktionen
  • Mitwirkung am Anforderungserfassungs- und Klärungsprozess, Vorschlag optimaler Architekturstrategien und Leitung der Implementierung der Datenarchitektur
  • Entwicklung von Kernmodulen und -funktionen, Entwurf skalierbarer und kostengünstiger Lösungen
  • < li>Durchführen von Codeüberprüfungen, Schreiben von Unit- und Integrationstests
  • Skalieren des verteilten Systems und der Infrastruktur auf die nächste Ebene
  • Aufbau einer Datenplattform mithilfe der Leistung des AWS-Cloud-Anbieters
  • Qualifikationen

    • Mehr als drei Jahre umfassende Erfahrung mit Python als Programmiersprache für Datenpipelines und verwandte Tools
    • Vertrautheit und Verständnis der verteilten Datenverarbeitung mit Spark zur Optimierung und Überwachung von Datenpipelines Arbeitslasten
    • Nachgewiesene starke Erfolgsbilanz bei der Erstellung von Datentransformationen mithilfe von Datenerstellungstools
    • Hervorragende Implementierung von Best Practices für Datenmodellierung und Data Warehousing
    • Erfahrung in der Arbeit mit Looker mit einem Entwicklerkenntnisse (nicht Benutzer) und mit LookML
    • Starker Data Domain-Hintergrund – Verständnis dafür, wie Dateningenieure, Datenwissenschaftler, Analyseingenieure und Analysten arbeiten, um in der Lage zu sein, wArbeiten Sie eng mit ihnen zusammen und verstehen Sie ihre Bedürfnisse
    • Gute Englischkenntnisse in Wort und Schrift
    • Vertrautheit mit Best Practices für die Softwareentwicklung: Testen, PRs, Git, Codeüberprüfungen, Codedesign, Veröffentlichung< /li>
    • Nachgewiesene starke Erfolgsbilanz beim Aufbau von Datenplattformen und der Verwaltung der Infrastruktur für Airflow und Databricks

    Wäre ein Pluspunkt

    • Datenzertifizierungen in Data Engineering oder Data Analytics
    • 2 oder mehr Jahre Erfahrung mit Databricks und Airflow
    • Erfahrung mit DAGs und Orchestrierungstools
    • Erfahrung in der Entwicklung von Snowflake-gesteuerten Daten Lager
    • Erfahrung in der Entwicklung ereignisgesteuerter Datenpipelines

      __________________________________________________________________
      Наш Клієнт — це громадський маркетплейс моди з ponad 30 mільйонами зареєстрованих користувачів у mehr. nicht mehr als 150 Tage alt. Diese Plattform ist für die Entwicklung eines modernen Stils konzipiert und bietet immer wieder neue Modi, die Millionen von Spielen hervorbringen. Im Jahr 2011 wurde das Büro in London gegründet, ein Unternehmen mit einer Lizenz von 400 співробітникив. Im Jahr 2021 wurde das Unternehmen Etsy gegründet und die Produkte wurden nicht mehr verkauft. Das Unternehmen ist ein Unternehmen, das persönliche Beratung und Unterstützung für mehrere Jahre anbietet рів навичок.

      Dieses Jahr wurde ich vor wenigen Tagen ins Ausland geschickt, und ich habe es für meine bürgerlichen Befehle übernommen. Nachdem Sie die ersten Schritte unternommen haben, müssen Sie die Kunden schnellstmöglich in Ihr Unternehmen einbinden Probleme. Meiner Meinung nach habe ich vor einigen Monaten mehr als 100.000 US-Dollar erhalten, die ich von Experten erhalten habe, die sich in den letzten Jahren in den USA entschieden haben.

      Обов'язки
    • Eine Reihe neuer Technologien und komplexer Produkte, die eine innovative Kultur aus der ganzen Welt bieten Dies ist ein wichtiger Bestandteil unserer ETL-Prozesse
    • Überprüfen Sie die Daten, die Sie benötigen, um den Code zu überprüfen, und aktualisieren Sie die Daten.
    • Dies ist eine professionelle Kommunikationslösung für die Verwaltung
    • Zur Aktualisierung neuer Funktionen
    • Sie möchten Ihren Prozess so gestalten, dass Sie optimale Architekturstrategien und eine Reihe neuer Architekturdaten entwickeln
    • li>
    • Neue Funktionsmodule, leistungsstarke Produkte und effiziente Ergebnisse
    • Vorbereitende Codes, Auswahl von Modulen und integrierten Tests
    • Mehrstufige Systeme und Infrastrukturlösungen.
    • Побудова платформи даних з використанням можливостей хмарного провайдера AWS
    • Ihre Seite Erstellen Sie eine Plattform für Roboter zur Verbesserung der Infrastruktur für Airflow und Databricks.
      Anforderungen
    • 3+ Jahre Erfahrung mit Python als Datenpipeline-Programmiersprache und verwandten Tools
    • Kenntnisse und Verständnis der verteilten Datenverarbeitung mit Spark zur Optimierung von Datenpipelines und Überwachung von Arbeitslasten
    • Nachgewiesene erfolgreiche Erfahrung beim Aufbau von Datentransformationen mithilfe von Datenarchitektur-Tools
    • Hervorragende Implementierung von Best Practices für Datenmodellierung und Data Warehouse
    • li >
    • Entwickler (Nicht-Benutzer) Looker-Erfahrung und LookML
    • Starke Data Domain-Erfahrung – verstehen, wie Dateningenieure, Datenwissenschaftler, Analyseingenieure und Analytiker arbeiten, um eng mit ihnen zusammenarbeiten und verstehen zu können ihre Bedürfnisse
    • Gute Englischkenntnisse in Wort und Schrift
    • Kenntnisse über Best Practices im Software-Engineering: Testen, PR, Git, Codeüberprüfung, Codedesign und -freigabe

    Der Vorteil ist:

    • Zertifizierungen in Data Engineering oder Datenanalyse
    • 2 oder mehr Jahre Erfahrung mit Databricks und Airflow
    • Erfahrung mit DAG und Orchestrierungstools
    • Erfahrung in der Entwicklung von Data Warehouses auf Basis von Snowflake
    • Erfahrung in der Entwicklung ereignisgesteuerter Datenpipelines

übersetzt von Google

keine Erfahrung
Kiew
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren