Następna praca

Lead Data Scientist (Szkolenie analityków + Dostawa ML) w ATB-market

6 stycznia

13 wyświetleń

ATB-market

ATB-market

0
0 recenzji
Brak doświadczenia
Dnipro
Pełny etat

Przetłumaczone przez Google

Zapraszamy do dołączenia do naszego zespołu Główny analityk danychRola:Tworzenie procesów analitycznych tak, aby dane były stabilne, odtwarzalne i możliwe do kontrolowania; rozpocznij szkolenie analityków i zapewnij dostarczenie rozwiązań ML od ustawienia problemu do produkcji.Zadania:Inżynieria danych i rurociągi: konfigurowanie Dagster + dbt; testy danych, alerty, kontrola wycieków.Prezentacje analityczne: projektowanie spójnych mart (klient/kontrola/produkt/sklep/promocja/kanał) z prawidłowym

Zapraszamy do dołączenia do naszego zespołu Główny analityk danych

Rola:

  • Tworzenie procesów analitycznych tak, aby dane były stabilne, odtwarzalne i możliwe do kontrolowania; 
  • rozpocznij szkolenie analityków i zapewnij dostarczenie rozwiązań ML od ustawienia problemu do produkcji.

Zadania:

  • Inżynieria danych i rurociągi: konfigurowanie Dagster + dbt; testy danych, alerty, kontrola wycieków.
  • Prezentacje analityczne: projektowanie spójnych mart (klient/kontrola/produkt/sklep/promocja/kanał) z prawidłowym ziarnem i historycznością.
  • ML dla danych tabelarycznych: budowanie i sprawdzanie poprawności modeli (LightGBM/XGBoost/CatBoost), regularyzacja, CV, praca nad nierównowagą klas, interpretacja (SHAP).
  • Ocena jakości modelu: ROC-AUC/PR-AUC, F1, kalibracja i inne.; przygotowanie metryk i raportów dla biznesu.
  • Pełny cykl ML/DS: wyznaczanie zadań - przygotowanie zbiorów danych - modelowanie - interpretacja - produkcja (batch/API), Docker.
  • Szkolenia/mentoring: szkolenia podnoszące umiejętności systemowe dla analityków (poziom Excel i wyższy), regularne zajęcia i przegląd zadań.
  • Polecenia standardów: Git, przegląd kodu, szablony notatników/raportów, dokumentacja; wdrożenie „Data Platform Playbook”.
  • Data Mining: odnajdywanie wzorców i hipotez na rzeczywistych danych, współpraca z biznesem.
  • Dodatkowo - Architektura i platforma danych: udział we wdrożeniu MinIO + Apache Iceberg + Katalog + Trino; zapewnienie jakości danych i możliwości zarządzania.

Wymagania (techniczne):

1. Python + SQL (silny): pandas/numpy, scikit-learn; CTE, funkcje okienkowe, optymalizacja zapytań.

2.   Podstawa matematyczna (praktyczna):

  • prawdopodobieństwo i statystyka: rozkłady, oczekiwanie/wariancja, przedziały ufności, wartość p;
  • testowanie hipotez, testy A/B, moc statystyczna;
  • algebra liniowa: macierze/wektory, podstawowe zrozumienie gradientów.

  • 3.  ML dla danych tabelarycznych: LightGBM/XGBoost/CatBoost, regularyzacja, wariancja odchylenia, weryfikacja krzyżowa, kontrola wycieków.
    4. Ocena modeli: ROC-AUC/PR-AUC, F1, kalibracja; pracować z brakiem równowagi; interpretacja (SHAP).
    5. Kompleksowy DS: od ustawienia problemu do produkcji (wsad/API), Docker.
    6.Szkolenia/mentoring: współpraca z analitykami na poziomie Excela; zajęcia systemowe + recenzja.
    7. Program podnoszenia umiejętności: umiejętność projektowania planu na 3-6 miesięcy (praktyka/praca domowa/matryca umiejętności).
    8.Standardy zespołowe: Git, przegląd kodu, szablony, dokumentacja.

Będzie plusem: doświadczenie w Lakehouse, dostrajaniu wydajności Trino, rozwiązaniach produkcyjnych-ML w handlu detalicznym/FMCG, doświadczeniu CI/CD dla DS.

Zadaniaw przypadku pilotażu (pierwsze 6 miesięcy):

  1. Dołącz do projektu wdrożeniowego „fabryki danych” (MinIO + Iceberg + Katalog + Trino) — zapewnij stabilność, odtwarzalność, kontrolę.
  2. Twórz podstawowe okna danych na potrzeby analityki klientów (klient/check/produkt/sklep/promocja/kanał) z uzgodnionym ziarnem i historycznością.
  3. Skonfiguruj automatyczne potoki (Dagster + dbt), testy danych i alerty.
  4. Buduj procesy przetwarzania i analizy danych, eksploracji danych.

Szkolenia wewnętrzne (wymagane):
5. Przeprowadź SQL Bootcamp dla grupy pilotażowej (3-4 osoby): SELECT/JOIN/GROUP BY, funkcje okna, logika ziarna, zasady „jak nie psuć metryk”.
6. Utwórz „Poradnik dotyczący platformy danych”: jak się połączyć, gdzie które tabele, jakie jest „źródło prawdy”, jak poprosić o nowe pola/tabele (proces aplikacji).
7. Uruchom godziny pracy 2 razy w tygodniu: analiza rzeczywistych zadań analityków na rzeczywistych danych.

Firma oferuje:

  • pracę w formacie zdalnym lub hybrydowym;
  • zatrudnienie na warunkach kontraktu koncertowego lub w państwie (możliwa rezerwacja);
  • płatny urlop wypoczynkowy w wymiarze 24 dni kalendarzowych, płatne zwolnienie lekarskie;
  • regularna wypłata wynagrodzeń bez opóźnień i w ustalonych kwotach, regularna kontrola wynagrodzeń;
  • możliwość rozwoju zawodowego i kariery;
  • szkolenia.


Osoba kontaktowa: Kateryna, tel. style="font-weight: 400">0984567857 (t.me/KaterynaB_HR)

Przetłumaczone przez Google

Brak doświadczenia
Dnipro
Pełny etat
Czy chcesz znaleźć odpowiednią pracę?
Nowe oferty pracy w Twoim Telegram
Subskrybuj
używamy cookies
Akceptować