Hauptaufgaben:
Aufbau, Optimierung und Wartung von ETL/ELT-Pipelines zur Verarbeitung von Daten aus verschiedenen Quellen (API, Dateien, manuell ausgefüllte Daten);
Implementierung von Prozessen der Datenerfassung, -bereinigung, -normalisierung, -transformation und -anreicherung;
Integration mit Cloud-Diensten Microsoft Azure (Funktionen, Blob Storage, Logic Apps usw.);
Bereitstellung und Wartung von Pipelines in der Cloud-Umgebung (CI/CD, Protokollierung, Überwachung);
Arbeiten mit PostgreSQL:
Hauptaufgaben:
- Aufbau, Optimierung und Wartung von ETL/ELT-Pipelines zur Verarbeitung von Daten aus verschiedenen Quellen (API, Dateien, manuell ausgefüllte Daten);
- Implementierung von Prozessen der Datenerfassung, -bereinigung, -normalisierung, -transformation und -anreicherung;
- Integration mit Cloud-Diensten Microsoft Azure (Funktionen, Blob Storage, Logic Apps usw.);
- Bereitstellung und Wartung von Pipelines in der Cloud-Umgebung (CI/CD, Protokollierung, Überwachung);
- Arbeiten mit PostgreSQL: Schemadesign, Abfrageoptimierung, Indizierung;
- Vorbereitung strukturierter Datensätze für das BI-Team und Erstellung von Berichten in Power BI;
- Zusammenarbeit mit Analysten und dem Produktteam, um die Datenverfügbarkeit sicherzustellen und Datenprodukte zu erstellen;
- Analyse und Beseitigung von Fehlern in der Datenverarbeitungslogik, Aufrechterhaltung der Stabilität von Pipelines;
- Mitwirkung bei der Entwicklung der Datenspeicherarchitektur, Empfehlungen zur Struktur der Datenbank;
- Dokumentation der Struktur von Pipelines, Datenquellen, Datenbankschemata und der Verarbeitung von Geschäftslogik.
Berufliche Fähigkeiten:
- 3+ Jahre Erfahrung als Data Engineer oder Back-End Engineer mit Schwerpunkt auf der Arbeit mit Daten;
- Praktische Erfahrung in der Entwicklung von ETL/ELT-Prozessen;
- Sichere Kenntnisse in PostgreSQL oder anderen relationalen DBMS: Erstellung von Strukturen, Abfragen, Optimierung;
- Verständnis und Erfahrung im Umgang mit Cloud-Diensten (AWS, Azure, GCP);
- Kenntnisse in Python oder einer anderen Sprache zum Schreiben von Datenverarbeitungsskripten;
- Erfahrung mit BI-Tools (Power BI, Tableau): Aufbereitung von Datensätzen und Metriken
- Erfahrung in der Arbeit mit GitHub, GitLab Aufgabenverwaltungssystemen;
- Verstehen der Prinzipien des Aufbaus einer zuverlässigen und skalierbaren Datenpipeline.
Persönliche Fähigkeiten:
- Fähigkeit, sowohl im Team als auch unabhängig zu arbeiten;
- Der Wunsch, Ihre Fähigkeiten ständig zu lernen und zu verbessern;
- Fähigkeit, sich schnell an die Situation anzupassen und schnell fundierte Entscheidungen zu treffen;
- Organisation, Verantwortung, Stressresistenz;
- Disziplin, Abwesenheit von schlechten Gewohnheiten (Alkohol, Drogen, Spielsucht usw.).
Senden Sie Ihre Lebensläufe oder rufen Sie die offizielle Nummer an, um ein Vorstellungsgespräch zu vereinbaren.