Размещайте вакансии
Нанимайте без комиссий
У меня есть глубокие знания реляционных баз данных и баз данных NoSQL, инструментов больших данных, потоковой передачи и оркестрации. У меня есть опыт работы с основными языками программирования для обработки данных, такими как Python и Scala. У меня есть всесторонний опыт в создании приложений, управляемых данными, таких как: Data Lake, DWH, OLTP, ETL. У меня есть сертификат AWS, а также несколько сертификатов Microsoft по разработке баз данных.
Вот список некоторых общих обязанностей, которые я выполняю в проектах: архитектура базы данных, оптимизация данных части приложения, обработка больших данных, построение озера данных, конвейеры ETL и т. д. Помимо моих основных обязанностей, я наставлял других членов команды и проводил обмен знаниями. .
Я несу ответственность, всегда с нетерпением жду развития своих навыков и получения новых знаний.
Project Description: Designing data platform for one of biggest tour operator in Europe.
Responsibilities: ▪ Designing data platform ▪ Architecture vision of new features ▪ Requirements' analysis and discussion ▪ Code review ▪ Optimization of existing process, creating documentation of processes ▪ Mentoring and knowledge sharing with other team members ▪ Communication with customer ▪ documentation, ticket creation and estimation Project Team Size: 10-20 team members
Tools & Technologies: Kafka ecosystem (connect, schema registry, stream), Spark, Flink, Iceberg Pulumi, Snowflake, AWS services, Kubernetes
Project Description: As Data Architect I was involved in different projects in such domains as retail, gambling and health care.
Main approaches were Data Lake, DWH, ETL pipelines, streaming and Batch processing.
Responsibilities: ▪ Architecture vision of new features ▪ Requirements' analysis and discussion ▪ Code review ▪ Optimization of existing process, creating documentation of processes ▪ Mentoring and knowledge sharing with other team members ▪ Communication with customers ▪ documentation, ticket creation and estimation Project Team Size: 8-10 team members
Tools & Technologies: Scala, Spark, Kafka, AWS services, Python, Aurora PostgreSQL, Redshift
Project Description: Tool allows to follow all company-employee relationship – from getting CV, assigning training, salary review and many more.
Responsibilities: ▪ Database development and optimization ▪ ETL development. ▪ Big Data processing using Spark ▪ Streaming data using Kafka Project Team Size: 10-15 team members
Tools & Technologies: AWS services, Aurora PostgreSQL, Spark, Kafka, Airflow, Java, Python
Project Description: Advertising company build analytics platform that its clients be able to analyze their ads activities.
Responsibilities: ▪ Data lake development ▪ DWH development ▪ ETL development
Tools & Technologies: AWS services, PostgreSQL, Spark, Airflow, Python.
Project: AWS Schema Conversion
Project Description: Tool makes database migrations by automatically converting the source database schema and a majority of the custom code to a format compatible with the target database.
Responsibilities: ▪ Development of database object’s migration rules ▪ Created rules for DB pairs: Oracle – Redshift, MS SQL – Redshift, Greenplum - Redshift
Project Team Size: 20-30 team members
Tools & Technologies: MS SQL, AWS Redshift, Oracle, Greenplum, Java, Python.