Nächste Arbeit

Leitender Python-/KI-Ingenieur in Data Pro Software Solutions

18 Dezember

16 Ansichten

Data Pro Software Solutions

Data Pro Software Solutions

0
0 Bewertungen
keine Erfahrung
Kiew
Vollzeitarbeit

übersetzt von Google

RollenübersichtWir suchen einen Senior Python/AI Engineer mit umfassender Erfahrung in maschinellem Lernen, Datentechnik, cloudbasierten Architekturen und AI-Agent-Pipelines.Sie arbeiten direkt mit dem Systemarchitekten zusammen, um Folgendes zu entwerfen und zu erstellen:KI-gestützte Datenpipelines,Vorhersage- und Bewertungsmodelle,Marktauflösungsorakel,agentische Verarbeitungspipelines (AWS Bedrock / LangChain / benutzerdefiniert),hochleistungsfähige, von AWS unterstützte Mikroservices und Ere

Rollenübersicht

Wir suchen einen Senior Python/AI Engineer mit umfassender Erfahrung in maschinellem Lernen, Datentechnik, cloudbasierten Architekturen und AI-Agent-Pipelines.

Sie arbeiten direkt mit dem Systemarchitekten zusammen, um Folgendes zu entwerfen und zu erstellen:

  • KI-gestützte Datenpipelines,
  • Vorhersage- und Bewertungsmodelle,
  • Marktauflösungsorakel,
  • agentische Verarbeitungspipelines (AWS Bedrock / LangChain / benutzerdefiniert),
  • hochleistungsfähige, von AWS unterstützte Mikroservices und Ereignisgesteuerte Arbeitsabläufe.

Diese Rolle eignet sich für einen selbstgesteuerten Ingenieur, der in einer sich schnell verändernden Architektur agieren kann.

Hauptaufgaben

KI / ML

  • Entwickeln und trainieren Sie ML-Modelle für Marktsignale, Verhaltensmuster, Benutzerrisikosegmentierung, Anomalieerkennung.
  • Implementieren Sie Einbettungspipelines, Vektorsuche und semantische Analyse mit:
    AWS Bedrock (Titan, Claude), SageMaker, LangChain, FAISS, OpenSearch oder lokale Pipelines.
  • Erstellen Sie LLM-basierte Agenten mit LangGraph, LangChain, AWS Bedrock Agents oder benutzerdefinierter Orchestrierung.
  • Arbeiten Sie mit HuggingFacePyTorchscikit-learnTransformersNomic-Einbettungen, usw.

Python Engineering

  • Entwerfen Sie saubere, modulare Dienste für Datenerfassung, Verarbeitung, Analyse und Agenten-Workflows.
  • Erstellen Sie Echtzeit-Pipelines mit:
    asyncio, WebSockets, FastAPI, Redis Streams, Kafka, Celery, Apache Beam (optional).
  • Implementieren Sie Microservices, die mit internen APIs, AWS-Services und Datenschichten interagieren.
  • Schreiben Sie Python (3.10+) in Produktionsqualität mit Pydantic, SQLAlchemy, Poesie/pipenv, Typprüfung (mypy) und Tests (pytest).

Data Engineering

  • Erstellen Sie ETL/ELT-Pipelines, die sowohl On-Chain- als auch Off-Chain-Datensätze aggregieren unter Verwendung von:
    AWS Glue, AWS Lambda, Step Functions, Athena, S3, DynamoDB Streams, Kinesis.
  • Speicher und Datenzugriff optimieren: PostgreSQL, DynamoDB, Redis, S3, OpenSearch.
  • Beobachtbarkeit und Überwachung implementierenRing: CloudWatch-Protokolle, Metriken, 400">
  • Erfahrung mit AWS:
    • Lambda (Python-Laufzeit)
    • ECS Fargate
    • Bedrock (LLMs, Einbettungen, Agenten)
    • SageMaker (Modelltraining und Bereitstellung)
    • SQS, SNS, EventBridge
    • API Gateway
    • OpenSearch
    • Neptune (graph DB)
    • Best Practices für KMS, IAM
  • Erstellen und überwachen Sie ML-Dienste in der Produktion mit:
    SageMaker-Endpunkten, CI/CD, Docker, Terraform, GitLab CI.

Anforderungen

Must-Have

  • 5+ Jahre Python-Engineering-Erfahrung.
  • Ausgeprägte Erfahrung in AI/ML, insbesondere NLP und agentenbasierten Architekturen.
  • Erfahrung mit LLMs, Einbettungen, RAG und Vektor-DBs (FAISS, OpenSearch, Pinecone).
  • Ausgeprägtes Verständnis von asynchronem Python und verteilten Systemen.
  • Erfahrung mit Datenpipelines (ETL/ELT), ereignisgesteuert in Echtzeit Verarbeitung.
  • Fähigkeit, unabhängig zu arbeiten und End-to-End-Lösungen zu entwickeln.
  • Vertrautheit mit AWS-Cloud-Services (mindestens S3, Lambda, API Gateway, CloudWatch).

Nice-to-Have

  • Erfahrung mit Blockchain (EVM, Polygon, Oracles).
  • Erfahrung mit AWS SageMaker-Trainingspipelines.
  • Verständnis für Smart-Contract-gesteuerte Arbeitsabläufe.
  • Erfahrung mit Diagrammanalysen: Neo4j, AWS Neptune, RDF/Gremlin.
  • Grundkenntnisse Soliditätsverständnis.
  • Erfahrung mit Agent-Frameworks wie LangGraph.

übersetzt von Google

keine Erfahrung
Kiew
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren