Wir laden Sie ein, unserem Team Lead Data Scientist beizutretenRolle:Analyseprozesse so aufbauen, dass Daten stabil, reproduzierbar und kontrollierbar sind; beginnen Sie mit der Ausbildung von Analysten und stellen Sie die Bereitstellung von ML-Lösungen von der Problemstellung bis zur Produktion sicher.Verantwortlichkeiten:Datentechnik und Pipelines: Einrichten von Dagster + dbt; Datentests, Warnungen, Leckagekontrolle.Analytische Schaufenster: Design konsistenter Marts (Kunde/Scheck/Produkt/Ges
Wir laden Sie ein, unserem Team Lead Data Scientist beizutreten
Rolle:
- Analyseprozesse so aufbauen, dass Daten stabil, reproduzierbar und kontrollierbar sind;
- beginnen Sie mit der Ausbildung von Analysten und stellen Sie die Bereitstellung von ML-Lösungen von der Problemstellung bis zur Produktion sicher.
Verantwortlichkeiten:
- Datentechnik und Pipelines: Einrichten von Dagster + dbt; Datentests, Warnungen, Leckagekontrolle.
- Analytische Schaufenster: Design konsistenter Marts (Kunde/Scheck/Produkt/Geschäft/Promo/Kanal) mit korrekter Körnung und Historizität.
- ML für tabellarische Daten: Erstellen und Validieren von Modellen (LightGBM/XGBoost/CatBoost), Regularisierung, CV, Klassenungleichgewichtsarbeit, Interpretation (SHAP).
- Bewertung von Modellqualität: ROC-AUC/PR-AUC, F1, Kalibrierung und andere.; Vorbereitung von Metriken und Berichten für Unternehmen.
- Vollständiger ML/DS-Zyklus: Aufgabenstellung – Vorbereitung von Datensätzen – Modellierung – Interpretation – Produktion (Batch/API), Docker.
- Schulung/Mentoring: Systemschulung für Analysten (Excel-Level und höher), regelmäßige Kurse und Überprüfung von Aufgaben.
- Standardbefehle: Git, Codeüberprüfung, Notizbuch-/Berichtsvorlagen, Dokumentation; Implementierung des „Data Platform Playbook“.
- Data Mining: Finden von Mustern und Hypothesen auf realen Daten, Zusammenarbeit mit Unternehmen.
- Zusätzlich – Architektur und Datenplattform: Mitwirkung bei der Bereitstellung von MinIO + Apache Iceberg + Catalog + Trino; Sicherstellung der Datenqualität und Verwaltbarkeit.
Anforderungen (technisch):
1. Python + SQL (stark): pandas/numpy, scikit-learn; CTE, Fensterfunktionen, Abfrageoptimierung.
2. Mathematische Grundlagen (praktisch):
- Wahrscheinlichkeit und Statistik: Verteilungen, Erwartung/Varianz, Konfidenzintervalle, p-Wert;
- Hypothesetests, A/B-Tests, statistische Aussagekraft;
- lineare Algebra: Matrizen/Vektoren, grundlegendes Verständnis von Gradienten.
3. ML für Tabellendaten: LightGBM/XGBoost/CatBoost, Regularisierung, Bias-Varianz, Kreuzvalidierung, Leckagekontrolle.
4. Bewertung von Modellen: ROC-AUC/PR-AUC, F1, Kalibrierung; mit Ungleichgewicht arbeiten; Interpretation (SHAP).
5. End-to-End-DS: von der Problemstellung bis zur Produktion (Batch/API), Docker.
6.Training/Mentoring: Arbeiten Sie mit Analysten auf Excel-Niveau; Systemklassen + Überprüfung.
7. Upskill-Programm: Fähigkeit, einen Plan für 3–6 Monate zu entwerfen (Übung/Hausaufgaben/Fähigkeitsmatrix).
8.Teamstandards: Git, Codeüberprüfung, Vorlagen, Dokumentation.
Wird von Vorteil sein: Erfahrung mit Lakehouse, Trino-Leistungsoptimierung, Produktions-ML-Lösungen im Einzelhandel/FMCG, CI/CD-Erfahrung für DS.
Aufgabenfür den Piloten (erste 6 Monate):
- Nehmen Sie am „Data Factory“-Bereitstellungsprojekt teil (MinIO + Iceberg + Catalog + Trino) – stellen Sie Stabilität, Reproduzierbarkeit und Kontrolle sicher.
- Erstellen Sie grundlegende Datenfenster für Kundenanalysen (Kunde/Scheck/Produkt/Shop/Promo/Kanal) mit vereinbarter Körnung und Historizität.
- Richten Sie automatische Pipelines ein (Dagster + dbt), Datentests und Warnungen.
- Erstellen Sie Prozesse der Datenverarbeitung und -analyse, Data Mining.
Interne Schulung (erforderlich):
5. Führen Sie ein SQL Bootcamp für eine Pilotgruppe (3-4 Personen) durch: SELECT/JOIN/GROUP BY, Fensterfunktionen, Grain-Logik, Regeln „wie man Metriken nicht bricht“.
6. Erstellen Sie ein „Data Platform Playbook“: wie man eine Verbindung herstellt, wo welche Tabellen, was die „Quelle der Wahrheit“ ist, wie man neue Felder/Tabellen anfordert (Bewerbungsprozess).
7. Durchführung von Bürostunden 2 Mal pro Woche: Analyse realer Aufgaben von Analysten anhand realer Daten.
Das Unternehmen bietet:
- Remote- oder Hybridformat-Arbeit;
- Anstellung im Rahmen eines Gig-Vertrags oder im Land (Reservierung möglich);
- bezahlter Jahresurlaub von 24 Kalendertagen, bezahlter Krankheitsurlaub;
- regelmäßige Lohnzahlung ohne Verzögerungen und in festgelegten Beträgen, regelmäßige Gehaltsüberprüfung;
- Möglichkeit zur beruflichen und beruflichen Weiterentwicklung;
- Schulungen.
Kontaktperson: Kateryna, Tel. style="font-weight: 400">0984567857 (t.me/KaterynaB_HR)