4 Tage 2024
Middle Data Engineer Київ, Львів, віддалено Was Sie tun werden ● Anwendungen entwickeln; Motoren und Integrationen; ● Optimieren Sie die Leistung von APIs und Integrationen mit UIs; ● Optimieren Sie das Framework für die Entwicklung und Verwaltung von ML-Modellen. ● Erstellen Sie hochgradig wiederverwendbare Codemodule und -pakete, die für viele Zwecke genutzt werden können. ● Entwerfen und erstellen Sie effiziente Datenpipelines, um Daten aus verschiedenen Quellen in das
4 Tage 2024
Middle Data Engineer
Київ, Львів, віддалено
Was Sie tun werden ● Anwendungen entwickeln; Motoren und Integrationen;
● Optimieren Sie die Leistung von APIs und Integrationen mit UIs;
● Optimieren Sie das Framework für die Entwicklung und Verwaltung von ML-Modellen.
● Erstellen Sie hochgradig wiederverwendbare Codemodule und -pakete, die für viele Zwecke genutzt werden können.
● Entwerfen und erstellen Sie effiziente Datenpipelines, um Daten aus verschiedenen Quellen in das Data Warehouse, die Pipeline für maschinelles Lernen oder in Anwendungen von Indeed zu integrieren.
● Arbeiten Sie eng mit Stakeholdern auf der Datennachfrageseite (Vertriebsleiter, Marketingleiter und -analysten sowie Datenwissenschaftler) und auf der Angebotsseite (Experten für Quellsysteme) zusammen.
● Entwickeln und pflegen Sie Datenwörterbücher für die Verwaltung veröffentlichter Datenquellen und verbessern Sie kontinuierliche Veröffentlichungs- und Testprozesse.
Must Haves● 3+ Jahre Erfahrung als Data Engineer mit Python oder Java;
● Idealerweise ein Bachelor-Abschluss in Informatik, Computertechnik oder einer Ingenieursdisziplin;
● 3+ Jahre Branchenerfahrung in der Datentechnik mit ausgeprägter Expertise in schnelllebigen und lieferorientierten Umgebungen;
● Erfahrung in der Bereitstellung von Datenpipelines und der Verwaltung resultierender Datenspeicher mithilfe verwalteter Cloud-Dienste (wie AWS oder Google Cloud Services);
● Erfahrung in der Entwicklung von APIs (REST /GraphQL); Integrationen mit Benutzeroberflächen und Regel-Engines – Bereitstellung hoher Leistungsfähigkeit, z. B. Reaktionszeiten unter einer Sekunde; und hohe Parallelität;
● Erfahrung mit modernen Datenpipelines, Datenstreaming und Echtzeitanalysen unter Verwendung von Tools wie Apache Kafka, AWS Kinesis, Spark Streaming, ElasticSearch oder ähnlichen Tools;
● Erfahrung mit spaltenorientierten relationalen Datenspeichern, NoSQL-Technologien (MySQL/Postgresql, Redis, Mongo, ElasticSearch) sowie Big-Data-Tools wie Google BigQuery, Redshift, Snowflake sowie Kenntnisse über traditionellere Warehouses.
Die Vorteile einer Mitgliedschaft bei uns ● Berufliche Weiterentwicklung: Beschleunigen Sie Ihre berufliche Reise mit Mentoring, TechTalks und personalisierten Wachstums-Roadmaps
● Wettbewerbsfähige Vergütung: Wir passen zusammen Ihre ständig wachsenden Fähigkeiten, Talente und Beiträge mit wettbewerbsfähigen USD-basierten Vergütungen und Budgets für Bildung, Fitness und Teamaktivitäten
● Eine Auswahl spannender Projekte: Nehmen Sie an Projekten mit moderner Lösungsentwicklung und erstklassigen Kunden teil, darunter Fortune-500-Unternehmen und führende Produktmarken
● Gleitzeit: Passen Sie Ihren Zeitplan für eine optimale Work-Life-Balance an, indem Sie die Möglichkeit haben, von zu Hause aus zu arbeiten und ins Büro zu gehen – was auch immer Sie am glücklichsten und produktivsten macht. p>