Stanowisko zostało zamknięte przez spółkę
Znajdź podobne oferty pracy
Następna praca

ML Engineer (LLMs) @ Brainly Sp. z o.o. w Brainly Sp. z o.o.

Opublikowano ponad 30 dni temu

159 wyświetleń

Brainly Sp. z o.o.

Brainly Sp. z o.o.

0
0 recenzji
Brak doświadczenia
Gdansk
Pełny etat

Przetłumaczone przez Google

Inżynier ML będzie miał okazję przekształcić artefakty uczenia maszynowego w systemy produkcyjne, uczestniczyć we wdrażaniu najnowocześniejszych praktyk MLOps oraz doskonalić umiejętności w zakresie NLP, widzenia komputerowego, generatywnej sztucznej inteligencji, przetwarzania danych na dużą skalę, i wyszukiwanie informacji. Idealny kandydat to entuzjasta technologii edukacyjnych z doświadczeniem w tworzeniu oprogramowania i zestawem umiejętności łączących infrastrukturę chmury, uczenie maszyn

Inżynier ML będzie miał okazję przekształcić artefakty uczenia maszynowego w systemy produkcyjne, uczestniczyć we wdrażaniu najnowocześniejszych praktyk MLOps oraz doskonalić umiejętności w zakresie NLP, widzenia komputerowego, generatywnej sztucznej inteligencji, przetwarzania danych na dużą skalę, i wyszukiwanie informacji.

Idealny kandydat to entuzjasta technologii edukacyjnych z doświadczeniem w tworzeniu oprogramowania i zestawem umiejętności łączących infrastrukturę chmury, uczenie maszynowe i kodowanie w języku Python.

Jako członek zespołu Machine Learning Infra inżynier ML będzie ściśle współpracował z innymi rolami AI w zespołach AI Services (inżynierowie MLOps, badacze danych, analitycy AI, specjaliści ds. operacji AI ) w projektach wewnętrznych, opracowywać modułowe rozwiązania MLOps w oparciu o to, co zapewniają zespoły inżynierii danych i automatyzacji, a także współpracować z innymi zespołami ML spoza działu, aby wspierać wdrażanie technologii.

Ponadto zespół ML Infra pełni podwójną rolę: jest właścicielem platformy MLOps używanej przez wszystkich praktyków ML w Brainly i pełni funkcję szkieletu inżynieryjnego dla projektów AI Services.

Czy masz motywację do szybkiego uczenia się i rozwoju w wymaganych obszarach, aby odnieść sukces w pracy? Pasjonujesz się automatyzacją przepływów pracy? Kierujesz się kulturą DevOps i wysokimi standardami oprogramowania? Czy bierzesz odpowiedzialność za problemy/wyzwania od początku do końca? Czy masz pozytywne nastawienie i chęć podejmowania wyzwań i złożonych problemów? Jeśli odpowiedziałeś twierdząco na te pytania, być może jesteś idealnym kandydatem na to stanowisko! 

CO JEST WYMAGANE

  • Ponad 3 lata doświadczenia w pracy z modelami Deep Learning w środowisku produkcyjnym lub porównywalna kariera w branży w zakresie uczenia maszynowego, eksploracji danych lub modelowania statystycznego.
  • Ponad 1 rok doświadczenia w modelach Deep Learning dla NLP, modelach językowych lub analizie tekstu w produkcji.
  • Praktyczne doświadczenie z nowoczesnym przetwarzaniem w chmurze AWS (najlepiej) lub Azure, GCP i usługami w zakresie przechowywania, przetwarzania danych, środowisk bezserwerowych, badawczo-rozwojowych i ML R&D.
  • Doświadczenie w tworzeniu potoków uczenia maszynowego na potrzeby inżynierii funkcji, szkoleń, oceny i wnioskowania wsadowego.
  • Doświadczenie we wdrażaniu modeli uczenia maszynowego w środowisku produkcyjnym, monitorowaniu na żywo i zarządzaniu cyklem życia modeli (np. etykietowaniem, ponownym szkoleniem).
  • Dobre umiejętności kodowania w Pythonie, w szczególności na potrzeby szkolenia i wdrażania modeli oraz powiązanych bibliotek (np. numpy, Boto3, FastAPI, PyTorch, Pandas, Poetry lub podobne).
  • Frameworki Machine Learning takie jak: Tensorflow czy PyTorch, AWS Sagemaker, scikit-learn, Transformers (HuggingFace).
  • Głęboka wiedza i zrozumienie teoretycznych podstaw współczesnego uczenia maszynowego, w szczególności głębokich sieci neuronowych, NLP/LLM (najlepiej) lub wizji komputerowej.
  • Bash i Linux/Unix (np. AWS CLI, Docker, skrypty lub podobne).
  • Usługi w chmurze (np. IAM, EC2, S3, RDS, Redshift, Sagemaker, Athena, Lambda lub GCP i alternatywy Azure).
  • Obliczenia równoległe (przetwarzanie wieloprocesorowe, asynchronizacja, procesory graficzne, fragmentowanie modelu).
  • Narzędzia do analizy i wizualizacji danych, takie jak pandy, plotly, matplotlib, seaborn lub streamlit.
  • Postawa gracza zespołowego i umiejętności jasnej komunikacji.
  • Wysoki poziom samoorganizacji.
  • Biegła znajomość języka angielskiego w mowie i piśmie.

CO JEST PREFEROWANE

  • Tytuł licencjata lub wyższy w dziedzinie STEM (nauka, technologia, inżynieria, matematyka) lub pokrewnej dziedzinie.
  • Praktyczne doświadczenie z technologiami przechowywania i przetwarzania danych (np. relacyjnymi/nierelacyjnymi bazami danych, hurtowniami, rozwiązaniami do przechowywania w chmurze i różnymi silnikami przetwarzania).
  • Praktyczne doświadczenie w obsłudze modeli uczenia maszynowego na dużą skalę (miliony żądań dziennie).
  • Praktyczne doświadczenie z komputerowymi modelami i algorytmami wizyjnymi.
  • Praktyczne doświadczenie z Kubernetesem i mikrousługami.
  • Praktyczne doświadczenie z narzędziami Infrastructure as Code.
  • Znajomość podstaw Inżynierii Danych (np. SQL i NoSQL, strumieniowanie danych, Apache Spark, Snowflake).
  • CI/CD (np. GitHub Actions, AWS CodePipeline lub podobne).
  • Kubernetes (np. Deployment, StatefulSet, Ingress, Helm lub podobne, REST API).
  • Stos MLOps (np. Neptune.ai, Sagemaker lub podobny jak MLFlow, Kubeflow, Flyte).
  • Frameworki IaaC (Terraform, CloudFormation, Pulumi).
  • Nowoczesne frameworki do serwowania modeli (torchserve, NVIDIA Triton czy Seldon).
  • Znajomość zwinnego programowania i zasad Lean.

Inżynier ML będzie miał okazję przekształcić artefakty uczenia maszynowego w systemy produkcyjne, uczestniczyć we wdrażaniu najnowocześniejszych praktyk MLOps i doskonalić umiejętności w zakresie NLP, widzenia komputerowego, generatywnego Sztuczna inteligencja, przetwarzanie danych na dużą skalę i wyszukiwanie informacji.

Idealny kandydat to entuzjasta technologii edukacyjnych z doświadczeniem w tworzeniu oprogramowania i zestawem umiejętności łączących infrastrukturę chmury, uczenie maszynowe i kodowanie w języku Python.

Jako członek zespołu Machine Learning Infra inżynier ML będzie ściśle współpracował z innymi rolami AI w zespołach AI Services (inżynierowie MLOps, badacze danych, analitycy AI, specjaliści ds. operacji AI ) w projektach wewnętrznych, opracowywać modułowe rozwiązania MLOps w oparciu o to, co zapewniają zespoły inżynierii danych i automatyzacji, a także współpracować z innymi zespołami ML spoza działu, aby wspierać wdrażanie technologii.

Ponadto zespół ML Infra pełni podwójną rolę: jest właścicielem platformy MLOps używanej przez wszystkich praktyków ML w Brainly i pełni funkcję szkieletu inżynieryjnego dla projektów AI Services.

Czy masz motywację do szybkiego uczenia się i rozwoju w wymaganych obszarach, aby odnieść sukces w pracy? Pasjonujesz się automatyzacją przepływów pracy? Kierujesz się kulturą DevOps i wysokimi standardami oprogramowania? Czy bierzesz odpowiedzialność za problemy/wyzwania od początku do końca? Czy masz pozytywne nastawienie i chęć podejmowania wyzwań i złożonych problemów? Jeśli odpowiedziałeś twierdząco na te pytania, być może jesteś idealnym kandydatem na to stanowisko! 

, [Przekształć artefakty uczenia maszynowego w systemy i usługi produkcyjne., Wdróż narzędzia i struktury, które pomogą badaczom danych (lub innym interesariuszom) pracować wydajniej, siwzmacnianie obszarów, takich jak uczenie i ocena modeli, adnotacja danych i przetwarzanie., Przetwarzaj duże zbiory danych – zarówno w ramach przygotowanych i dobrze zorganizowanych potoków danych, jak i w trybie szybkim i brudnym – w celu szybkiego eksperymentowania., Integruj rozwiązania ML w większych systemów (inne cechy produktu lub procesy biznesowe). Przewodzenie innowacjom i sprawdzanie możliwości AI w całej firmie w oparciu o najnowocześniejsze usługi i modele Computer Vision, NLP oraz nowoczesne usługi i modele LLM., Badaj i bądź na bieżąco z najnowszymi osiągnięciami w technologii AI (zarówno modele/algorytmy, jak i narzędzia/biblioteki/SaaS/API)., Buduj, wdrażaj, automatyzuj, konserwuj i zarządzaj całym cyklem życia modelu rozwiązań do nauki danych opracowanych w dziale AI Services., Zapewnij możliwości inżynieryjne do naszych wewnętrznych projektów badawczych., Pełnić rolę konsultanta i odpowiadać za wdrażanie i utrzymanie rozwiązań opartych na ML w obszarach produkcyjnych, które nie mają przypisanego dedykowanego zespołu AI (np. Zaufanie i bezpieczeństwo, moderowanie treści lub eksperymentalne funkcje produktu), Pracować ściśle z zespołami produkcyjnymi w celu integracji i ułatwienia przyjęcia narzędzi i standardowych rozwiązań opracowanych przez zespół ds. infrastruktury ML.]

Wymagania: Python, NLP, głębokie uczenie się, transformatory, AWS , TensorFlow, PyTorch, AWS SageMaker, Docker, Redshift, EC2, Computer Vision, Kubernetes, CI/CD
Dodatkowo: subskrypcja sportowa, budżet szkoleniowy, prywatna opieka zdrowotna, pakiet opieki stomatologicznej, opcje na akcje , AskHenry, Infolinia ds. zdrowia psychicznego.

Przetłumaczone przez Google

Brak doświadczenia
Gdansk
Pełny etat
Czy chcesz znaleźć odpowiednią pracę?
Nowe oferty pracy w Twoim Telegram
Subskrybuj
używamy cookies
Akceptować