Data Pro Software Solutions
RollenübersichtWir suchen einen Senior Python/AI Engineer mit umfassender Erfahrung in maschinellem Lernen, Datentechnik, cloudbasierten Architekturen und AI-Agent-Pipelines.Sie arbeiten direkt mit dem Systemarchitekten zusammen, um Folgendes zu entwerfen und zu erstellen:KI-gestützte Datenpipelines,Vorhersage- und Bewertungsmodelle,Marktauflösungsorakel,agentische Verarbeitungspipelines (AWS Bedrock / LangChain / benutzerdefiniert),hochleistungsfähige, von AWS unterstützte Mikroservices und Ere
Rollenübersicht
Wir suchen einen Senior Python/AI Engineer mit umfassender Erfahrung in maschinellem Lernen, Datentechnik, cloudbasierten Architekturen und AI-Agent-Pipelines.
Sie arbeiten direkt mit dem Systemarchitekten zusammen, um Folgendes zu entwerfen und zu erstellen:
- KI-gestützte Datenpipelines,
- Vorhersage- und Bewertungsmodelle,
- Marktauflösungsorakel,
- agentische Verarbeitungspipelines (AWS Bedrock / LangChain / benutzerdefiniert),
- hochleistungsfähige, von AWS unterstützte Mikroservices und Ereignisgesteuerte Arbeitsabläufe.
Diese Rolle eignet sich für einen selbstgesteuerten Ingenieur, der in einer sich schnell verändernden Architektur agieren kann.
Hauptaufgaben
KI / ML
- Entwickeln und trainieren Sie ML-Modelle für Marktsignale, Verhaltensmuster, Benutzerrisikosegmentierung, Anomalieerkennung.
- Implementieren Sie Einbettungspipelines, Vektorsuche und semantische Analyse mit:
AWS Bedrock (Titan, Claude), SageMaker, LangChain, FAISS, OpenSearch oder lokale Pipelines. - Erstellen Sie LLM-basierte Agenten mit LangGraph, LangChain, AWS Bedrock Agents oder benutzerdefinierter Orchestrierung.
- Arbeiten Sie mit HuggingFace, PyTorch, scikit-learn, Transformers, Nomic-Einbettungen, usw.
Python Engineering
- Entwerfen Sie saubere, modulare Dienste für Datenerfassung, Verarbeitung, Analyse und Agenten-Workflows.
- Erstellen Sie Echtzeit-Pipelines mit:
asyncio, WebSockets, FastAPI, Redis Streams, Kafka, Celery, Apache Beam (optional). - Implementieren Sie Microservices, die mit internen APIs, AWS-Services und Datenschichten interagieren.
- Schreiben Sie Python (3.10+) in Produktionsqualität mit Pydantic, SQLAlchemy, Poesie/pipenv, Typprüfung (mypy) und Tests (pytest).
Data Engineering
- Erstellen Sie ETL/ELT-Pipelines, die sowohl On-Chain- als auch Off-Chain-Datensätze aggregieren unter Verwendung von:
AWS Glue, AWS Lambda, Step Functions, Athena, S3, DynamoDB Streams, Kinesis. - Speicher und Datenzugriff optimieren: PostgreSQL, DynamoDB, Redis, S3, OpenSearch.
- Beobachtbarkeit und Überwachung implementierenRing: CloudWatch-Protokolle, Metriken, 400">
- Erfahrung mit AWS:
- Lambda (Python-Laufzeit)
- ECS Fargate
- Bedrock (LLMs, Einbettungen, Agenten)
- SageMaker (Modelltraining und Bereitstellung)
- SQS, SNS, EventBridge
- API Gateway
- OpenSearch
- Neptune (graph DB)
- Best Practices für KMS, IAM
- Erstellen und überwachen Sie ML-Dienste in der Produktion mit:
SageMaker-Endpunkten, CI/CD, Docker, Terraform, GitLab CI.
Anforderungen
Must-Have
- 5+ Jahre Python-Engineering-Erfahrung.
- Ausgeprägte Erfahrung in AI/ML, insbesondere NLP und agentenbasierten Architekturen.
- Erfahrung mit LLMs, Einbettungen, RAG und Vektor-DBs (FAISS, OpenSearch, Pinecone).
- Ausgeprägtes Verständnis von asynchronem Python und verteilten Systemen.
- Erfahrung mit Datenpipelines (ETL/ELT), ereignisgesteuert in Echtzeit Verarbeitung.
- Fähigkeit, unabhängig zu arbeiten und End-to-End-Lösungen zu entwickeln.
- Vertrautheit mit AWS-Cloud-Services (mindestens S3, Lambda, API Gateway, CloudWatch).
Nice-to-Have
- Erfahrung mit Blockchain (EVM, Polygon, Oracles).
- Erfahrung mit AWS SageMaker-Trainingspipelines.
- Verständnis für Smart-Contract-gesteuerte Arbeitsabläufe.
- Erfahrung mit Diagrammanalysen: Neo4j, AWS Neptune, RDF/Gremlin.
- Grundkenntnisse Soliditätsverständnis.
- Erfahrung mit Agent-Frameworks wie LangGraph.