4 lipca 2024
Middle Data Engineer Київ, Львів, віддалено Co będziesz robić | Twórz aplikacje; silniki i integracje; ● Optymalizuj wydajność interfejsów API i integracji z interfejsem użytkownika; ● Zoptymalizuj ramy rozwoju modelu uczenia maszynowego i zarządzania nim; ● Twórz moduły i pakiety kodu wielokrotnego użytku, które można wykorzystać do wielu celów; ● Projektuj i buduj wydajne potoki danych, aby integrować dane z różnych źródeł z hurtownią danych, potokiem uczenia maszyn
4 lipca 2024
Middle Data Engineer
Київ, Львів, віддалено
Co będziesz robić | Twórz aplikacje; silniki i integracje;
● Optymalizuj wydajność interfejsów API i integracji z interfejsem użytkownika;
● Zoptymalizuj ramy rozwoju modelu uczenia maszynowego i zarządzania nim;
● Twórz moduły i pakiety kodu wielokrotnego użytku, które można wykorzystać do wielu celów;
● Projektuj i buduj wydajne potoki danych, aby integrować dane z różnych źródeł z hurtownią danych, potokiem uczenia maszynowego lub aplikacjami firmy Indeed;
● Ściśle współpracuj z interesariuszami po stronie popytu na dane (kierownicy sprzedaży, liderzy i analitycy marketingu oraz naukowcy zajmujący się danymi) i po stronie podaży (eksperci od systemów źródłowych).
● Twórz i utrzymuj słowniki danych w celu zarządzania opublikowanymi źródłami danych, a także ulepszaj procesy ciągłego wydawania i testowania.
Niezbędne elementy ● Ponad 3 lata doświadczenia w pracy jako inżynier danych w języku Python lub Java;
● Idealny tytuł licencjata w dziedzinie informatyki, inżynierii komputerowej lub dyscypliny inżynierskiej;
● Ponad 3 lata doświadczenia w branży w inżynierii danych z dużą wiedzą specjalistyczną w zakresie szybkich i ukierunkowanych środowisk;
● Doświadczenie w dostarczaniu potoków danych i zarządzaniu wynikającymi z nich magazynami danych przy użyciu zarządzanych usług w chmurze (takich jak AWS lub Google Cloud Services);
● Doświadczenie w tworzeniu interfejsów API (REST / GraphQL); integracje z interfejsami użytkownika i silnikami reguł – zapewniające wysoką wydajność, np. czasy reakcji poniżej sekundy; i wysoka współbieżność;
● Doświadczenie z nowoczesnymi potokami danych, strumieniowaniem danych i analityką w czasie rzeczywistym przy użyciu narzędzi takich jak Apache Kafka, AWS kinesis, Spark Streaming, ElasticSearch lub podobnych narzędzi;
● Doświadczenie w kolumnowych relacyjnych magazynach danych, technologiach NoSQL (MySQL/Postgresql, Redis, Mongo, ElasticSearch) oraz narzędziach big data takich jak Google BigQuery, Redshift, Snowflake, a także znajomość bardziej tradycyjnych hurtowni.
Korzyści z dołączenia do nas ● Rozwój zawodowy: przyspiesz swoją ścieżkę zawodową dzięki mentoringowi, TechTalks i spersonalizowanym planom rozwoju
● Konkurencyjne wynagrodzenie: Dopasowujemy się Twoje stale rosnące umiejętności, talent i wkład dzięki konkurencyjnemu wynagrodzeniu w USD oraz budżetom na edukację, fitness i działania zespołowe
● wybór ekscytujących projektów: dołącz do projektów z opracowywaniem nowoczesnych rozwiązań i czołowymi klientami, do których zaliczają się Przedsiębiorstwa z listy Fortune 500 i wiodące marki produktów
● Flextime: dostosuj swój harmonogram, aby zapewnić optymalną równowagę między życiem zawodowym a prywatnym, mając możliwość pracy w domu i pójścia do biura – w dowolnym miejscu, które sprawi, że będziesz najszczęśliwszy i najbardziej produktywny. p>