Zapraszamy do dołączenia do naszego zespołu starszego/środkowego inżyniera DevOps.Zadania:projektowanie, wdrażanie i wsparcie lokalnej infrastruktury dla platformy Data Lake / DWH o pojemności ponad 100 TB;budowanie i administracja klastrami (Kubernetes lub podobna orkiestracja kontenerów, a także zwykłe serwery);ustawienia skalowania - poziome i pionowe, wysoka dostępność, równoważenie obciążenia;automatyzacja infrastruktury za pomocą IaC (Terraform, Ansible, Helm itp.);tworzenie i obsługa poto
Zapraszamy do dołączenia do naszego zespołu starszego/środkowego inżyniera DevOps.
Zadania:
- projektowanie, wdrażanie i wsparcie lokalnej infrastruktury dla platformy Data Lake / DWH o pojemności ponad 100 TB;
- budowanie i administracja klastrami (Kubernetes lub podobna orkiestracja kontenerów, a także zwykłe serwery);
- ustawienia skalowania - poziome i pionowe, wysoka dostępność, równoważenie obciążenia;
- automatyzacja infrastruktury za pomocą IaC (Terraform, Ansible, Helm itp.);
- tworzenie i obsługa potoków CI/CD (ETL, usługi analityczne, API);
- monitorowanie wydajności, metryki i planowanie pojemności dla klastrów z dużą liczbą dane;
- bezpieczeństwo infrastruktury: zasady sieciowe, tajemnice, TLS, kontrola dostępu;
- wsparcie operacyjne platformy: aktualizacje, kopie zapasowe, odzyskiwanie po awarii;
- przygotowanie dokumentacji, runbooków i procedur automatycznego wdrażania oraz zadań wsparcia rozwiązań.
Wymagania obowiązkowe:
- ponad 3 lata doświadczenia jako DevOps / SRE / Inżynier Platformy;
- doświadczenie w pracy z infrastrukturą lokalną, - sieci, wirtualizacja, dostrajanie hypervisora;
- znajomość systemu Linux (sieć, bezpieczeństwo, dostrajanie wydajności);
- doświadczenie w pracy z Kubernetesem lub innymi orkiestratorami kontenerów w środowiskach produkcyjnych;
- doświadczenie z infrastrukturą jako kod (Terraform, Ansible, Helm);
- praktyczna konfiguracja CI/CD (GitLab CI / GitHub Actions / Jenkins);
- zrozumienie zasad budowy klastrów i systemów rozproszonych (replikacja, HA, sharding, rebalancing);
- doświadczenie z infrastrukturą sieciową;
- umiejętność pisania skryptów;
- doświadczenie z Git i Git-flow.
Pożądane (będzie plusem):
- doświadczenie z repozytoriami obiektów (systemy kompatybilne z MinIO, S3) lub systemy plików HDFS;
- doświadczenie w pracy z kolumnowymi i analitycznymi magazynami danych;
- znajomość stosów przetwarzania danych: Spark, Airflow, Kafka, dbt;
- rozwój lub utrzymanie dużych klastrów o pojemności 10-100+ TB;
- doświadczenie w budowaniu kopii zapasowych i przywracaniu danych po awarii strategie.
Cechy osobiste:
- orientacja na automatyzację i chęć minimalizacji operacji ręcznych;
- dbałość o szczegóły, umiejętność pracy z dużą ilością danych i złożonymi systemami;
- umiejętność pracy w ramach ograniczeń infrastruktury on-prem;
- umiejętność ustalania priorytetów kluczowych zadań w warunkach stresu;
- odpowiedzialność, struktura, przejrzystość w komunikacja;
- chęć dokumentowania rozwiązań i dzielenia się wiedzą z zespołem;
- inicjatywa w doskonaleniu procesów i stabilności platformy.
Firma oferuje:
- format pracy zdalnej lub hybrydowej;
- zatrudnienie na podstawie umowy o pracę lub w kadrze (jestmożliwość rezerwacji);
- płatny urlop wypoczynkowy w wymiarze 24 dni kalendarzowych, płatne zwolnienie lekarskie;
- regularna wypłata wynagrodzeń bez opóźnień i w ustalonych wysokościach, regularna rewizja wynagrodzeń;
- możliwość rozwoju zawodowego i kariery;
- szkoleń.
Osoba kontaktowa0984567857 styl czcionki: normalny"> (t.me/KaterynaB_HR)