Die Stelle wurde vom Unternehmen geschlossen
Ähnliche Jobs finden
Nächste Arbeit

ML-Ingenieur (LLMs) bei Brainly Sp. z o.o. z o.o. in Brainly Sp. z o.o.

Gepostet vor über 30 Tagen

164 Ansichten

Brainly Sp. z o.o.

Brainly Sp. z o.o.

0
0 Bewertungen
keine Erfahrung
Gdansk
Vollzeitarbeit

übersetzt von Google

Der ML-Ingenieur hat die Möglichkeit, Artefakte des maschinellen Lernens in Produktionssysteme umzuwandeln, an der Implementierung modernster MLOps-Praktiken mitzuwirken und seine Fähigkeiten in NLP, Computer Vision, generativer KI, groß angelegter Datenverarbeitung zu verbessern. und Informationsbeschaffung. Der ideale Kandidat ist ein Enthusiast von Bildungstechnologien mit einem Hintergrund in der Softwareentwicklung und Fähigkeiten, die Cloud-Infrastruktur, maschinelles Lernen und Python-Co

Der ML-Ingenieur hat die Möglichkeit, Artefakte des maschinellen Lernens in Produktionssysteme umzuwandeln, an der Implementierung modernster MLOps-Praktiken mitzuwirken und seine Fähigkeiten in NLP, Computer Vision, generativer KI, groß angelegter Datenverarbeitung zu verbessern. und Informationsbeschaffung.

Der ideale Kandidat ist ein Enthusiast von Bildungstechnologien mit einem Hintergrund in der Softwareentwicklung und Fähigkeiten, die Cloud-Infrastruktur, maschinelles Lernen und Python-Codierung kombinieren.

Als Teil des Machine Learning Infra-Teams wird ML Engineer eng mit anderen KI-Rollen innerhalb der AI Services-Teams zusammenarbeiten (MLOps-Ingenieure, Datenwissenschaftler, KI-Analysten, KI-Betriebsspezialisten). ) an internen Projekten, entwickeln modularisierte MLOps-Lösungen zusätzlich zu dem, was die Data Engineering- und Automatisierungsteams bereitstellen, und arbeiten mit anderen ML-Teams außerhalb der Abteilung zusammen, um die Technologieeinführung zu unterstützen.

Darüber hinaus hat das ML-Infra-Team eine Doppelrolle: Es besitzt die MLOps-Plattform, die von allen ML-Praktikern bei Brainly verwendet wird, und fungiert als technisches Rückgrat für die KI-Services-Projekte.

Sind Sie motiviert, schnell zu lernen und sich in den erforderlichen Bereichen weiterzuentwickeln, um im Job erfolgreich zu sein? Die Automatisierung von Arbeitsabläufen liegt Ihnen am Herzen? Verfolgen Sie die DevOps-Kultur und hochwertige Softwarestandards? Übernehmen Sie die Verantwortung für Probleme/Herausforderungen von Anfang bis Ende? Haben Sie eine positive Einstellung und die Bereitschaft, Herausforderungen und komplexe Probleme anzugehen? Wenn Sie diese Fragen mit „Ja“ beantwortet haben, sind Sie möglicherweise der perfekte Kandidat für diese Stelle! 

WAS ERFORDERLICH IST

  • 3+ Jahre Erfahrung mit Deep-Learning-Modellen in der Produktion oder eine vergleichbare Branchenkarriere mit maschinellem Lernen, Data Mining oder statistischer Modellierung.
  • 1+ Jahre Erfahrung mit Deep-Learning-Modellen für NLP, Sprachmodellen oder Textanalysen in der Produktion.
  • Praktische Erfahrung mit modernem Cloud Computing, entweder AWS (vorzugsweise) oder Azure, GCP, und Diensten für Speicher-, Datenverarbeitungs-, serverlose, F&E- und ML-F&E-Umgebungen.
  • Erfahrung mit der Produktisierung von ML-Pipelines für Feature-Engineering, Schulung, Evaluierung und Batch-Inferenzzwecke.
  • Erleben Sie die Bereitstellung von ML-Modellen für die Produktion, die Live-Überwachung und die Verwaltung des Lebenszyklus von Modellen (z. B. Kennzeichnung, Umschulung).
  • Ausgeprägte Python-Codierungskenntnisse, insbesondere zum Zweck des Trainings und der Bereitstellung von Modellen und zugehörigen Bibliotheken (z. B. Numpy, Boto3, FastAPI, PyTorch, Pandas, Poetry oder ähnliches).
  • Frameworks für maschinelles Lernen wie: Tensorflow oder PyTorch, AWS Sagemaker, scikit-learn, Transformers (HuggingFace).
  • Umfassende Kenntnisse und Verständnis der theoretischen Grundlagen des modernen maschinellen Lernens, insbesondere Deep Neural Networks, entweder NLP/LLMs (vorzugsweise) oder Computer Vision.
  • Bash und Linux/Unix (z. B. AWS CLI, Docker, Scripting oder ähnliches).
  • Cloud-Dienste (z. B. IAM, EC2, S3, RDS, Redshift, Sagemaker, Athena, Lambda oder GCP- und Azure-Alternativen).
  • Paralleles Computing (Multi-Processing, Async, GPUs, Model Sharding).
  • Datenanalyse- und Visualisierungstools wie Pandas, Plotly, Matplotlib, seaborn oder streamlit.
  • Teamplayer-Einstellung und klare Kommunikationsfähigkeiten.
  • Hohes Maß an Selbstorganisation.
  • Fließende Englischkenntnisse in Wort und Schrift.

WAS WIRD BEVORZUGT

  • Ein Bachelor-Abschluss oder höher in MINT (Naturwissenschaften, Technik, Ingenieurwesen, Mathematik) oder ein ähnliches Fach.
  • Praktische Erfahrung mit Datenspeicher- und -verarbeitungstechnologien (z. B. relationale/nicht relationale Datenbanken, Warehouses, Cloud-Speicherlösungen und verschiedene Verarbeitungs-Engines).
  • Praktische Erfahrung mit der Bereitstellung groß angelegter ML-Modelle (Millionen Anfragen/Tag).
  • Praktische Erfahrung mit Computer-Vision-Modellen und -Algorithmen.
  • Praktische Erfahrung mit Kubernetes und Microservices.
  • Praktische Erfahrung mit Infrastructure-as-Code-Tools.
  • Vertrautheit mit den Grundlagen des Data Engineering (z. B. SQL und NoSQL, Datenstreaming, Apache Spark, Snowflake).
  • CI/CD (z. B. GitHub Actions, AWS CodePipeline oder ähnliches).
  • Kubernetes (z. B. Deployment, StatefulSet, Ingress, Helm oder ähnliches, REST-APIs).
  • MLOps-Stack (z. B. Neptune.ai, Sagemaker oder ähnliches wie MLFlow, Kubeflow, Flyte).
  • IaaC-Frameworks (Terraform, CloudFormation, Pulumi).
  • Moderne Modellserver-Frameworks (Torchserve, NVIDIA Triton oder Seldon).
  • Vertraut mit agiler Entwicklung und Lean-Prinzipien.

Der ML-Ingenieur hat die Möglichkeit, Artefakte des maschinellen Lernens in Produktionssysteme umzuwandeln, an der Implementierung modernster MLOps-Praktiken mitzuwirken und seine Fähigkeiten in NLP, Computer Vision und Generativ zu verbessern KI, groß angelegte Datenverarbeitung und Informationsabruf.

Der ideale Kandidat ist ein Enthusiast für Bildungstechnologien mit einem Hintergrund in der Softwareentwicklung und Fähigkeiten, die Cloud-Infrastruktur, maschinelles Lernen und Python-Codierung kombinieren.

Als Teil des  Machine Learning Infra-Teams wird ML Engineer eng mit anderen KI-Rollen innerhalb der AI Services-Teams zusammenarbeiten (MLOps-Ingenieure, Datenwissenschaftler, KI-Analysten, KI-Betriebsspezialisten). ) an internen Projekten, entwickeln modularisierte MLOps-Lösungen zusätzlich zu dem, was die Data Engineering- und Automatisierungsteams bereitstellen, und arbeiten mit anderen ML-Teams außerhalb der Abteilung zusammen, um die Technologieeinführung zu unterstützen.

Darüber hinaus hat das ML-Infra-Team eine Doppelrolle: Es besitzt die MLOps-Plattform, die von allen ML-Praktikern bei Brainly verwendet wird, und fungiert als technisches Rückgrat für die KI-Services-Projekte.

Sind Sie motiviert, schnell zu lernen und sich in den erforderlichen Bereichen weiterzuentwickeln, um im Job erfolgreich zu sein? Die Automatisierung von Arbeitsabläufen liegt Ihnen am Herzen? Verfolgen Sie die DevOps-Kultur und hochwertige Softwarestandards? Übernehmen Sie die Verantwortung für Probleme/Herausforderungen von Anfang bis Ende? Haben Sie eine positive Einstellung und die Bereitschaft, Herausforderungen und komplexe Probleme anzugehen? Wenn Sie diese Fragen mit „Ja“ beantwortet haben, sind Sie möglicherweise der perfekte Kandidat für diese Stelle! 

,[Verwandeln Sie Artefakte des maschinellen Lernens in Produktionssysteme und -dienste., Implementieren Sie Tools und Frameworks, die Data Scientists (oder anderen Stakeholdern) helfen, effizienter zu arbeiten, siBereiche wie Modellschulung und -bewertung, Datenannotation und -verarbeitung werden erweitert. Große Datenmengen werden verarbeitet – sowohl innerhalb vorbereiteter und gut organisierter Datenpipelines als auch im Quick-and-Dirty-Modus – zum Zwecke schneller Experimente. ML-Lösungen in größere Datensätze integrieren Systeme (andere Produktfunktionen oder Geschäftsprozesse)., Führen Sie Innovationen an und validieren Sie unternehmensweite KI-Möglichkeiten auf der Grundlage modernster Computer Vision, NLP und moderner LLM-Dienste und -Modelle., Recherchieren Sie und bleiben Sie über die neuesten Fortschritte auf dem Laufenden in KI-Technologie (sowohl Modelle/Algorithmen als auch Tools/Bibliotheken/SaaS/APIs)., Erstellen, Bereitstellen, Automatisieren, Warten und Verwalten des gesamten Modelllebenszyklus der in der KI-Services-Abteilung entwickelten Data-Science-Lösungen., Bereitstellung der technischen Fähigkeiten an unseren internen Forschungsprojekten. Du fungierst als Berater und verantwortest die Implementierung und Wartung von ML-basierten Lösungen in Produktionsbereichen, denen kein eigenes KI-Team zugewiesen ist (z. B. Vertrauen und Sicherheit, Inhaltsmoderation oder experimentelle Produktfunktionen)., Arbeit eng mit Produktionsteams zusammenarbeiten, um die vom ML-Infrastrukturteam entwickelten Tools und standardisierten Lösungen zu integrieren und deren Einführung zu erleichtern.]

Anforderungen: Python, NLP, Deep Learning, Transformatoren, AWS , TensorFlow, PyTorch, AWS SageMaker, Docker, Redshift, EC2, Computer Vision, Kubernetes, CI/CD
Zusätzlich: Sportabonnement, Schulungsbudget, private Gesundheitsversorgung, Zahnpflegepaket, Aktienoptionen , AskHenry, Helpline für psychische Gesundheit.

übersetzt von Google

keine Erfahrung
Gdansk
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren