Wir laden Sie ein, unserem Senior/Middle DevOps Engineer-Team beizutreten.Aufgaben:Entwerfen, Bereitstellen und Unterstützen einer On-Prem-Infrastruktur für einen Data Lake/DWH-Plattform mit mehr als 100 TB;Erstellen und Verwalten von Cluster (Kubernetes oder ähnliche Container-Orchestrierung und auch gewöhnliche Server);Skalierungseinstellungen – horizontal und vertikal, hohe Verfügbarkeit, Lastausgleich;Automatisierung der Infrastruktur mit IaC (Terraform, Ansible, Helm usw.);Erstellung und Un
Wir laden Sie ein, unserem Senior/Middle DevOps Engineer-Team beizutreten.
Aufgaben:
- Entwerfen, Bereitstellen und Unterstützen einer On-Prem-Infrastruktur für einen Data Lake/DWH-Plattform mit mehr als 100 TB;
- Erstellen und Verwalten von Cluster (Kubernetes oder ähnliche Container-Orchestrierung und auch gewöhnliche Server);
- Skalierungseinstellungen – horizontal und vertikal, hohe Verfügbarkeit, Lastausgleich;
- Automatisierung der Infrastruktur mit IaC (Terraform, Ansible, Helm usw.);
- Erstellung und Unterstützung von CI/CD-Pipelines (ETL, Analysedienste, API);
- Leistungsüberwachung, Metriken und Kapazitätsplanung für Cluster mit einer großen Anzahl von Daten;
- Infrastruktursicherheit: Netzwerkrichtlinien, Geheimnisse, TLS, Zugriffskontrolle;
- Betriebsunterstützung der Plattform: Updates, Backups, Notfallwiederherstellung;
- Erstellung von Dokumentation, Runbooks und automatisierten Bereitstellungsverfahren und Lösungsunterstützungsaufgaben.
Obligatorische Anforderungen:
- 3+ Jahre Erfahrung als DevOps / SRE / Plattformingenieur;
- Erfahrung in der Zusammenarbeit mit On-Prem-Infrastruktur, - Netzwerke, Virtualisierung, Hypervisor-Tuning;
- Kenntnisse in Linux (Netzwerk, Sicherheit, Leistungsoptimierung);
- Erfahrung in der Arbeit mit Kubernetes oder anderen Container-Orchestratoren in Produktionsumgebungen;
- Erfahrung mit Infrastructure as Code (Terraform, Ansible, Helm);
- praktische CI/CD-Einrichtung (GitLab CI / GitHub Actions / Jenkins);
- Verständnis der Prinzipien des Aufbaus von Clustern und verteilten Systemen (Replikation, HA, Sharding, Rebalancing);
- Erfahrung mit Netzwerkinfrastruktur;
- Fähigkeit, Skripte zu schreiben;
- Erfahrung mit Git und Git-Flow.
Wünschenswert (wäre ein Plus):
- Erfahrung mit Objekt-Repositories (MinIO, S3-kompatible Systeme) oder HDFS-Dateien Systeme;
- Erfahrung in der Arbeit mit spaltenbasierten und analytischen Datenspeichern;
- Kenntnisse in Datenverarbeitungs-Stacks: Spark, Airflow, Kafka, dbt;
- Entwicklung oder Wartung großer Cluster mit 10-100+ TB Daten;
- Erfahrung in der Erstellung von Backup- und Disaster-Recovery-Strategien.
Persönliche Qualitäten:
- Orientierung in Richtung Automatisierung und der Wunsch, manuelle Vorgänge zu minimieren;
- Liebe zum Detail, Fähigkeit, mit großen Datenmengen und komplexen Systemen zu arbeiten;
- Fähigkeit, innerhalb der Einschränkungen der lokalen Infrastruktur zu arbeiten;
- Fähigkeit, kritische Aufgaben unter Stressbedingungen zu priorisieren;
- Verantwortung, Struktur, Transparenz in der Kommunikation;
- Bereitschaft, Lösungen zu dokumentieren und Wissen mit dem Team zu teilen;
- Initiative bei der Verbesserung von Prozessen und Plattform Stabilität.
Das Unternehmen bietet:
- Remote- oder Hybrid-Arbeitsformat;
- Beschäftigung gemäß den Bedingungen von einen Gig-Vertrag oder im Personal (istdie Möglichkeit der Reservierung);
- bezahlter Jahresurlaub von 24 Kalendertagen, bezahlter Krankheitsurlaub;
- regelmäßige Lohnzahlung ohne Verzögerungen und in der vereinbarten Höhe, regelmäßige Lohnüberprüfung;
- die Möglichkeit der beruflichen und beruflichen Weiterentwicklung;
- Schulungen.
Kontaktperson: Kateryna, Tel. (t.me/KaterynaB_HR)