Data Pro Software Solutions
Przegląd roliSzukamy starszego inżyniera Python/AI z dużym doświadczeniem w uczeniu maszynowym, inżynierii danych, architekturach opartych na chmurze i potokach agentów AI.Będziesz współpracował bezpośrednio z architektem systemu przy projektowaniu i budowaniu:Potoki danych oparte na sztucznej inteligencji,modele prognozowania i oceniania,wyrocznie do rozpoznawania rynku,potoki przetwarzania agentów (AWS Bedrock / LangChain / niestandardowe),wysokowydajne mikrousługi wspierane przez AWS i przepł
Przegląd roli
Szukamy starszego inżyniera Python/AI z dużym doświadczeniem w uczeniu maszynowym, inżynierii danych, architekturach opartych na chmurze i potokach agentów AI.
Będziesz współpracował bezpośrednio z architektem systemu przy projektowaniu i budowaniu:
- Potoki danych oparte na sztucznej inteligencji,
- modele prognozowania i oceniania,
- wyrocznie do rozpoznawania rynku,
- potoki przetwarzania agentów (AWS Bedrock / LangChain / niestandardowe),
- wysokowydajne mikrousługi wspierane przez AWS i przepływ pracy sterowany zdarzeniami.
Ta rola jest odpowiednia dla niezależnego inżyniera, który potrafi działać w szybko zmieniającej się architekturze.
Kluczowe obowiązki
AI / ML
- Tworzyj i trenuj modele ML pod kątem sygnałów rynkowych, wzorców zachowań, segmentacji ryzyka użytkownika, wykrywania anomalii.
- Wdrażaj osadzanie potoków, wyszukiwanie wektorów i analizę semantyczną za pomocą:
AWS Bedrock (Titan, Claude), SageMaker, LangChain, FAISS, OpenSearch lub lokalne potoki. - Twórz agentów opartych na LLM, korzystając z LangGraph, LangChain, agentów AWS Bedrock lub niestandardowej orkiestracji.
- Praca z HuggingFace, PyTorch, scikit-learn, Transformers, Osadzania Nomic, itp.
Inżynieria Pythona
- Projektuj przejrzyste, modułowe usługi do gromadzenia, przetwarzania, analiz i agentycznych przepływów pracy danych.
- Twórz potoki w czasie rzeczywistym, korzystając z:
asyncio, WebSockets, FastAPI, Redis Streams, Kafka, Seler, Apache Beam (opcjonalnie).. - Wdrażaj mikrousługi współpracujące z wewnętrznymi interfejsami API, usługami AWS i warstwami danych.
- Napisz język Python o jakości produkcyjnej (3.10 lub nowszej) za pomocą Pydantic, SQLAlchemy, Poetry/pipenv, sprawdzanie typów (mypy) i testy (pytest).
Inżynieria danych
- Twórz potoki ETL/ELT agregujące oba w łańcuchu i zbiory danych poza łańcuchem przy użyciu:
AWS Glue, AWS Lambda, Step Functions, Athena, S3, DynamoDB Streams, Kinesis. - Optymalizacja pamięci masowej i dostępu do danych: PostgreSQL, DynamoDB, Redis, S3, OpenSearch.
- Wprowadź obserwowalność i monitorowaniering: Dzienniki CloudWatch, metryki, prześwietlenie, OpenTelemetry.
DevOps / Cloud (fajnie mieć)
- Doświadczenie z AWS:
- Lambda (runtime Pythona)
- ECS Fargate
- Bedrock (LLM, osadzanie, agenci)
- SageMaker (szkolenie i wdrażanie modeli)
- SQS, SNS, EventBridge
- bramka API
- OpenSearch
- Neptune (graph DB)
- Najlepsze praktyki KMS, IAM
- Tworzenie i monitorowanie usług ML w środowisku produkcyjnym przy użyciu:
punktów końcowych SageMaker, CI/CD, Docker, Terraform, GitLab CI.
Wymagania
Niezbędnik
- Ponad 5 lat doświadczenia w inżynierii w języku Python.
- Dogłębne doświadczenie w AI/ML, zwłaszcza NLP i architekturach opartych na agentach.
- Doświadczenie z LLM, osadzaniem, RAG i wektorowymi bazami danych (FAISS, OpenSearch, Pinecone).
- Dobra znajomość asynchronicznego Pythona i systemów rozproszonych.
- Doświadczenie z potokami danych (ETL/ELT) w czasie rzeczywistym przetwarzanie sterowane zdarzeniami.
- Możliwość samodzielnej pracy i kompleksowego projektowania rozwiązań.
- Znajomość usług chmurowych AWS (co najmniej S3, Lambda, API Gateway, CloudWatch).
Miło to mieć
- Doświadczenie z blockchainem (EVM, Polygon, Oracles).
- Doświadczenie z procesami szkoleniowymi AWS SageMaker.
- Zrozumienie przepływów pracy opartych na inteligentnych kontraktach.
- Doświadczenie w analizie grafów: Neo4j, AWS Neptune, RDF/Gremlin.
- Podstawowa znajomość Solidity.
- Doświadczenie ze frameworkami agentowymi, takimi jak LangGraph.