Zostań liderem strategii danych dla naszych klientów na całym świecie. Poszukujemy Senior Data Engineer, który będzie pełnił rolę rzetelnego doradcy technicznego - osoby, która potrafi projektować złożone architektury Lakehouse, merytorycznie bronić rozwiązań technicznych przed interesariuszami i prowadzić działania przedsprzedażowe.MISJA:Twoją misją jest projektowanie skalowalnych, bezpiecznych i opłacalnych platform danych, które rozwiązują krytyczne zadania biznesowe. Przeprowadzisz audyty te
Zostań liderem strategii danych dla naszych klientów na całym świecie. Poszukujemy Senior Data Engineer, który będzie pełnił rolę rzetelnego doradcy technicznego - osoby, która potrafi projektować złożone architektury Lakehouse, merytorycznie bronić rozwiązań technicznych przed interesariuszami i prowadzić działania przedsprzedażowe.
MISJA:
Twoją misją jest projektowanie skalowalnych, bezpiecznych i opłacalnych platform danych, które rozwiązują krytyczne zadania biznesowe. Przeprowadzisz audyty techniczne, zdefiniujesz najlepsze praktyki dla zespołu i zbudujesz podstawową infrastrukturę umożliwiającą zaawansowaną analitykę i wdrażanie możliwości AI/GenAI dla naszych klientów.
CO ZROBISZ:
- Kieruj projektowaniem i wdrażaniem skalowalnych potoków i architektur Lakehouse. Pełnić rolę kluczowego eksperta technicznego (Design Authority) przy projektach.
- Rozwiązuj najtrudniejsze wyzwania techniczne — optymalizację mocno obciążonych potoków strumieniowych, debugowanie złożonych Spark-jobów i rozwój uniwersalnych frameworków.
- Bierz udział w ocenach technicznych, audytach istniejących systemów i przygotowywaniu ofert (estymacji). Wyjaśnij klientom zwrot z inwestycji w modernizację techniczną.
- Upewnij się, że wszystkie rozwiązania są gotowe do produkcji: bezpieczne, objęte monitorowaniem, opłacalne (FinOps) i udokumentowane.
- Definiuj standardy kodowania, przeprowadzaj recenzje kodu i mentoruj inżynierów średniego/młodszego stopnia, aby bezpośrednio rozwijali inżynierię danych.
CO JEST DLA NAS WAŻNE:
- Python lub Scala (poziom ekspert/wzorce projektowe), SQL (poziom ekspert).
- Databricks (katalog Unity), Snowflake, BigQuery, Synapse.
- Spark/PySpark (głębokie zrozumienie mechanizmów wewnętrznych, strojenie, przesyłanie strumieniowe), dbt (wzorce korporacyjne).
- Data Mesh, Lakehouse (Delta Lake/Iceberg), Lambda/Kappa.
- Zaawansowane Terraform/IaC, CI/CD, Docker/Kubernetes.
- Sklepy funkcji, wektorowe bazy danych, podstawy MLOps.
- Ekspert w języku Python (wzorce projektowe, tworzenie bibliotek) i SQL. Umiejętność optymalizacji kodu napisanego przez innych.
- Głęboka znajomość Databricks (zarządzanie pamięcią Spark, strategie partycjonowania) lub Snowflake (tuningowanie hurtowni, RBAC, klonowanie zerowej kopii). Rozumiesz, jak te narzędzia działają „od kuchni”.
- Umiejętność projektowania kompleksowych rozwiązań, doboru odpowiednich narzędzi (np. argumentacja „Dlaczego w tym przypadku Snowflake, a nie Redshift?”) i obrony swoich decyzji przed kadrą zarządzającą klienta.
- Ekspercka znajomość AWS, GCP lub Azure. Dogłębne zrozumienie sieci (VPC, PrivateLink), bezpieczeństwa (IAM) i ograniczeń integracji.
- Doświadczenie w uczestnictwie w fazach przedsprzedaży, audytach technicznych lub fazach odkrywania. Umiejętność przekształcania potrzeb biznesowych w specyfikacje techniczne.
- Zrozumienie zasad przygotowania danych do uczenia maszynowego (inżynieria funkcji, potoki dla LLM/RAG).
Będzie dodatkowym atutem:
- Gjakiekolwiek doświadczenie z Kafką, Kinesis lub Spark Structured Streaming.
- Doświadczenie z wektorowymi bazami danych (Pinecone, pgvector, Weaviate) lub frameworkami takimi jak LangChain.
- Profesjonalne certyfikaty w chmurze (np. AWS Solutions Architect Pro, Databricks Certified DE Professional).
- Zaawansowane modelowanie danych dla DynamoDB, Cosmos DB lub MongoDB.