Publikuj oferty pracy
Zatrudniaj bez prowizji
137 wyświetleń
MeGaDev
Dołącz do naszego zespołu, aby zbudować wysokowydajny backend dla naszej platformy klasy korporacyjnej. Twoja praca będzie polegać na integracji z różnymi systemami, optymalizacji przepływu danych i zapewnieniu bezpieczeństwa na najwyższym poziomie. W projekcie wykorzystywane są zarówno środowiska lokalne, jak i środowiska chmurowe AWS.
Zadania:
Projektowanie, rozwijanie i utrzymywanie usług backendowych przy użyciu języka Java (Spring Boot).
Projektuj i wdrażaj systemy przetwarzania wsadowego przy użyciu Spring Batch.
Tworzyj interfejsy API RESTful i GraphQL oraz zarządzaj nimi.
Optymalizuj zapytania PostgreSQL, pisz procedury i funkcje składowane oraz konfiguruj widoki zmaterializowane.
Konfiguruj i zarządzaj DAG w Apache Airflow na potrzeby złożonych przepływów pracy ETL.
Zapewnij wysoką wydajność, niezawodność i bezpieczeństwo usług backendu.
Efektywnie współpracuj z zespołami interdyscyplinarnymi, w tym programistami frontendowymi, inżynierami DevOps i administratorami baz danych.
Twórz jasną, zwięzłą i kompleksową dokumentację techniczną za pomocą Markdown.
Wymagania:
Java (Spring Boot i Spring Batch):
Głębokie zrozumienie podstaw języka Java, w tym struktur danych, algorytmów i współbieżności.
Umiejętność Spring Boot do tworzenia mikrousług i Spring Batch do przetwarzania wsadowego.
Doświadczenie ze Spring MVC, Spring Data JPA i Spring Security.
/>Doświadczenie w profilowaniu i optymalizacji aplikacji Java pod kątem wydajności.
Tworzenie API:
Dogłębne zrozumienie i praktyczne doświadczenie w projektowaniu, wdrażaniu i zarządzaniu interfejsami API RESTful i GraphQL.
Kolejki wiadomości:
Doświadczenie z Kafką do przetwarzania asynchronicznego i obsługi komunikatów.
Zarządzanie bazami danych (PostgreSQL):
Zaawansowane umiejętności SQL, w tym złożone zapytania, łączenia i indeksowanie.
Pisanie wydajnych procedur składowanych PL/pgSQL i funkcje.
Tworzenie widoków zmaterializowanych i zarządzanie nimi oraz optymalizacja wydajności bazy danych.
Orkiestracja danych (Apache Airflow):
Projektowanie i wdrażanie DAG-ów do orkiestracji przepływu pracy.
Umiejętność języka Python do pisania Airflow DAG i skrypty.
Graphile Engine (opcjonalnie):
Chęć poznania i skonfigurowania Graphile w celu wydajnej integracji API GraphQL z PostgreSQL.
Konteneryzacja (Docker i Kubernetes):
Podstawowa znajomość tworzenie i optymalizacja obrazów Dockera.
Znajomość konfigurowania klastrów Kubernetes i zarządzania nimi będzie dodatkowym atutem.
Bezpieczeństwo:
Wdrażanie najlepszych praktyk bezpieczeństwa w aplikacjach Java i zabezpieczanie interfejsów API.
Bezpieczeństwo kontenerów Docker i klastry Kubernetes.
Znajomość najlepszych praktyk bezpieczeństwa AWS, w tym IAM, VPC i grup bezpieczeństwa.
Wdrożenie i infrastruktura (on-premises i AWS):
Doświadczenie ze środowiskami lokalnymi i Usługi w chmurze AWS.
Konfigurowanie potoków CI/CD i zarządzanie nimi za pomocą BitBucket Pipelines, Jenkins lub podobnych narzędzi.
Umiejętność Terraform lub CloudFormation do zarządzania infrastrukturą.