Następna praca

Starszy inżynier Pythona/AI w Data Pro Software Solutions

18 grudnia

10 wyświetleń

Data Pro Software Solutions

Data Pro Software Solutions

0
0 recenzji
Brak doświadczenia
Kijów
Pełny etat

Przetłumaczone przez Google

Przegląd roliSzukamy starszego inżyniera Python/AI z dużym doświadczeniem w uczeniu maszynowym, inżynierii danych, architekturach opartych na chmurze i potokach agentów AI.Będziesz współpracował bezpośrednio z architektem systemu przy projektowaniu i budowaniu:Potoki danych oparte na sztucznej inteligencji,modele prognozowania i oceniania,wyrocznie do rozpoznawania rynku,potoki przetwarzania agentów (AWS Bedrock / LangChain / niestandardowe),wysokowydajne mikrousługi wspierane przez AWS i przepł

Przegląd roli

Szukamy starszego inżyniera Python/AI z dużym doświadczeniem w uczeniu maszynowym, inżynierii danych, architekturach opartych na chmurze i potokach agentów AI.

Będziesz współpracował bezpośrednio z architektem systemu przy projektowaniu i budowaniu:

  • Potoki danych oparte na sztucznej inteligencji,
  • modele prognozowania i oceniania,
  • wyrocznie do rozpoznawania rynku,
  • potoki przetwarzania agentów (AWS Bedrock / LangChain / niestandardowe),
  • wysokowydajne mikrousługi wspierane przez AWS i przepływ pracy sterowany zdarzeniami.

Ta rola jest odpowiednia dla niezależnego inżyniera, który potrafi działać w szybko zmieniającej się architekturze.

Kluczowe obowiązki

AI / ML

  • Tworzyj i trenuj modele ML pod kątem sygnałów rynkowych, wzorców zachowań, segmentacji ryzyka użytkownika, wykrywania anomalii.
  • Wdrażaj osadzanie potoków, wyszukiwanie wektorów i analizę semantyczną za pomocą:
    AWS Bedrock (Titan, Claude), SageMaker, LangChain, FAISS, OpenSearch lub lokalne potoki.
  • Twórz agentów opartych na LLM, korzystając z LangGraph, LangChain, agentów AWS Bedrock lub niestandardowej orkiestracji.
  • Praca z HuggingFacePyTorchscikit-learnTransformersOsadzania Nomic, itp.

Inżynieria Pythona

  • Projektuj przejrzyste, modułowe usługi do gromadzenia, przetwarzania, analiz i agentycznych przepływów pracy danych.
  • Twórz potoki w czasie rzeczywistym, korzystając z:
    asyncio, WebSockets, FastAPI, Redis Streams, Kafka, Seler, Apache Beam (opcjonalnie)..
  • Wdrażaj mikrousługi współpracujące z wewnętrznymi interfejsami API, usługami AWS i warstwami danych.
  • Napisz język Python o jakości produkcyjnej (3.10 lub nowszej) za pomocą Pydantic, SQLAlchemy, Poetry/pipenv, sprawdzanie typów (mypy) i testy (pytest).

Inżynieria danych

  • Twórz potoki ETL/ELT agregujące oba w łańcuchu i zbiory danych poza łańcuchem przy użyciu:
    AWS Glue, AWS Lambda, Step Functions, Athena, S3, DynamoDB Streams, Kinesis.
  • Optymalizacja pamięci masowej i dostępu do danych: PostgreSQL, DynamoDB, Redis, S3, OpenSearch.
  • Wprowadź obserwowalność i monitorowaniering: Dzienniki CloudWatch, metryki, prześwietlenie, OpenTelemetry.

DevOps / Cloud (fajnie mieć)

  • Doświadczenie z AWS:
    • Lambda (runtime Pythona)
    • ECS Fargate
    • Bedrock (LLM, osadzanie, agenci)
    • SageMaker (szkolenie i wdrażanie modeli)
    • SQS, SNS, EventBridge
    • bramka API
    • OpenSearch
    • Neptune (graph DB)
    • Najlepsze praktyki KMS, IAM
  • Tworzenie i monitorowanie usług ML w środowisku produkcyjnym przy użyciu:
    punktów końcowych SageMaker, CI/CD, Docker, Terraform, GitLab CI.

Wymagania

Niezbędnik

  • Ponad 5 lat doświadczenia w inżynierii w języku Python.
  • Dogłębne doświadczenie w AI/ML, zwłaszcza NLP i architekturach opartych na agentach.
  • Doświadczenie z LLM, osadzaniem, RAG i wektorowymi bazami danych (FAISS, OpenSearch, Pinecone).
  • Dobra znajomość asynchronicznego Pythona i systemów rozproszonych.
  • Doświadczenie z potokami danych (ETL/ELT) w czasie rzeczywistym przetwarzanie sterowane zdarzeniami.
  • Możliwość samodzielnej pracy i kompleksowego projektowania rozwiązań.
  • Znajomość usług chmurowych AWS (co najmniej S3, Lambda, API Gateway, CloudWatch).

Miło to mieć

  • Doświadczenie z blockchainem (EVM, Polygon, Oracles).
  • Doświadczenie z procesami szkoleniowymi AWS SageMaker.
  • Zrozumienie przepływów pracy opartych na inteligentnych kontraktach.
  • Doświadczenie w analizie grafów: Neo4j, AWS Neptune, RDF/Gremlin.
  • Podstawowa znajomość Solidity.
  • Doświadczenie ze frameworkami agentowymi, takimi jak LangGraph.

Przetłumaczone przez Google

Brak doświadczenia
Kijów
Pełny etat
Czy chcesz znaleźć odpowiednią pracę?
Nowe oferty pracy w Twoim Telegram
Subskrybuj
używamy cookies
Akceptować