Nächste Arbeit

Leitender Datenwissenschaftler (Schulung von Analysten + ML-Bereitstellung) in ATB-market

6 Januar

12 Ansichten

ATB-market

ATB-market

0
0 Bewertungen
keine Erfahrung
Dnipro
Vollzeitarbeit

übersetzt von Google

Wir laden Sie ein, unserem Team Lead Data Scientist beizutretenRolle:Analyseprozesse so aufbauen, dass Daten stabil, reproduzierbar und kontrollierbar sind; beginnen Sie mit der Ausbildung von Analysten und stellen Sie die Bereitstellung von ML-Lösungen von der Problemstellung bis zur Produktion sicher.Verantwortlichkeiten:Datentechnik und Pipelines: Einrichten von Dagster + dbt; Datentests, Warnungen, Leckagekontrolle.Analytische Schaufenster: Design konsistenter Marts (Kunde/Scheck/Produkt/Ges

Wir laden Sie ein, unserem Team Lead Data Scientist beizutreten

Rolle:

  • Analyseprozesse so aufbauen, dass Daten stabil, reproduzierbar und kontrollierbar sind; 
  • beginnen Sie mit der Ausbildung von Analysten und stellen Sie die Bereitstellung von ML-Lösungen von der Problemstellung bis zur Produktion sicher.

Verantwortlichkeiten:

  • Datentechnik und Pipelines: Einrichten von Dagster + dbt; Datentests, Warnungen, Leckagekontrolle.
  • Analytische Schaufenster: Design konsistenter Marts (Kunde/Scheck/Produkt/Geschäft/Promo/Kanal) mit korrekter Körnung und Historizität.
  • ML für tabellarische Daten: Erstellen und Validieren von Modellen (LightGBM/XGBoost/CatBoost), Regularisierung, CV, Klassenungleichgewichtsarbeit, Interpretation (SHAP).
  • Bewertung von Modellqualität: ROC-AUC/PR-AUC, F1, Kalibrierung und andere.; Vorbereitung von Metriken und Berichten für Unternehmen.
  • Vollständiger ML/DS-Zyklus: Aufgabenstellung – Vorbereitung von Datensätzen – Modellierung – Interpretation – Produktion (Batch/API), Docker.
  • Schulung/Mentoring: Systemschulung für Analysten (Excel-Level und höher), regelmäßige Kurse und Überprüfung von Aufgaben.
  • Standardbefehle: Git, Codeüberprüfung, Notizbuch-/Berichtsvorlagen, Dokumentation; Implementierung des „Data Platform Playbook“.
  • Data Mining: Finden von Mustern und Hypothesen auf realen Daten, Zusammenarbeit mit Unternehmen.
  • Zusätzlich – Architektur und Datenplattform: Mitwirkung bei der Bereitstellung von MinIO + Apache Iceberg + Catalog + Trino; Sicherstellung der Datenqualität und Verwaltbarkeit.

Anforderungen (technisch):

1. Python + SQL (stark): pandas/numpy, scikit-learn; CTE, Fensterfunktionen, Abfrageoptimierung.

2.   Mathematische Grundlagen (praktisch):

  • Wahrscheinlichkeit und Statistik: Verteilungen, Erwartung/Varianz, Konfidenzintervalle, p-Wert;
  • Hypothesetests, A/B-Tests, statistische Aussagekraft;
  • lineare Algebra: Matrizen/Vektoren, grundlegendes Verständnis von Gradienten.

  • 3.  ML für Tabellendaten: LightGBM/XGBoost/CatBoost, Regularisierung, Bias-Varianz, Kreuzvalidierung, Leckagekontrolle.
    4. Bewertung von Modellen: ROC-AUC/PR-AUC, F1, Kalibrierung; mit Ungleichgewicht arbeiten; Interpretation (SHAP).
    5. End-to-End-DS: von der Problemstellung bis zur Produktion (Batch/API), Docker.
    6.Training/Mentoring: Arbeiten Sie mit Analysten auf Excel-Niveau; Systemklassen + Überprüfung.
    7. Upskill-Programm: Fähigkeit, einen Plan für 3–6 Monate zu entwerfen (Übung/Hausaufgaben/Fähigkeitsmatrix).
    8.Teamstandards: Git, Codeüberprüfung, Vorlagen, Dokumentation.

Wird von Vorteil sein: Erfahrung mit Lakehouse, Trino-Leistungsoptimierung, Produktions-ML-Lösungen im Einzelhandel/FMCG, CI/CD-Erfahrung für DS.

Aufgabenfür den Piloten (erste 6 Monate):

  1. Nehmen Sie am „Data Factory“-Bereitstellungsprojekt teil (MinIO + Iceberg + Catalog + Trino) – stellen Sie Stabilität, Reproduzierbarkeit und Kontrolle sicher.
  2. Erstellen Sie grundlegende Datenfenster für Kundenanalysen (Kunde/Scheck/Produkt/Shop/Promo/Kanal) mit vereinbarter Körnung und Historizität.
  3. Richten Sie automatische Pipelines ein (Dagster + dbt), Datentests und Warnungen.
  4. Erstellen Sie Prozesse der Datenverarbeitung und -analyse, Data Mining.

Interne Schulung (erforderlich):
5. Führen Sie ein SQL Bootcamp für eine Pilotgruppe (3-4 Personen) durch: SELECT/JOIN/GROUP BY, Fensterfunktionen, Grain-Logik, Regeln „wie man Metriken nicht bricht“.
6. Erstellen Sie ein „Data Platform Playbook“: wie man eine Verbindung herstellt, wo welche Tabellen, was die „Quelle der Wahrheit“ ist, wie man neue Felder/Tabellen anfordert (Bewerbungsprozess).
7. Durchführung von Bürostunden 2 Mal pro Woche: Analyse realer Aufgaben von Analysten anhand realer Daten.

Das Unternehmen bietet:

  • Remote- oder Hybridformat-Arbeit;
  • Anstellung im Rahmen eines Gig-Vertrags oder im Land (Reservierung möglich);
  • bezahlter Jahresurlaub von 24 Kalendertagen, bezahlter Krankheitsurlaub;
  • regelmäßige Lohnzahlung ohne Verzögerungen und in festgelegten Beträgen, regelmäßige Gehaltsüberprüfung;
  • Möglichkeit zur beruflichen und beruflichen Weiterentwicklung;
  • Schulungen.


Kontaktperson: Kateryna, Tel. style="font-weight: 400">0984567857 (t.me/KaterynaB_HR)

übersetzt von Google

keine Erfahrung
Dnipro
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren