Senior Data Engineer with Databricks

Data

Senior Data Engineer with Databricks

Data
Bielany, Warszawa

Crestt

Full-time
B2B, Permanent
Senior
Remote
7 051 - 8 814 USD
Net per month - B2B
7 161 - 8 263 USD
Gross per month - Permanent

Job description

Cześć! Poszukujemy osoby na stanowisko Senior Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.

 

Lokalizacja: praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)

Widełki:

  • B2B 160-200 pln netto+vat/h
  • UoP 26-30 tys. brutto/mies.


Wymagania:

  • Biegłość w SQL oraz Pythonie (min. 5 lat doświadczenia)
  • Co najmniej 2-letnie doświadczenie w pracy z Databricks
  • Doświadczenie w pracy w środowisku chmurowym (preferowany Azure)
  • Minimum 5-letnie doświadczenie w projektowaniu oraz implementacji rozwiązań klasy BI, ETL/ELT, Data Warehouse, Data Lake, Big Data oraz OLAP
  • Praktyczna znajomość zarówno relacyjnych, jak i nierelacyjnych
  • Doświadczenie z narzędziami typu Apache Airflow, dbt, Apache Kafka, Flink, Azure Data Factory, Hadoop/CDP
  • Znajomość zagadnień związanych z zarządzaniem danymi, jakością danych oraz przetwarzaniem wsadowym i strumieniowym
  • Umiejętność stosowania wzorców architektonicznych w obszarze danych (Data Mesh, Data Vault, Modelowanie wymiarowe, Medallion Architecture, Lambda/Kappa Architectures)
  • Praktyczna znajomość systemów kontroli wersji (Bitbucket, GitHub, GitLab)
  • Wysoko rozwinięte umiejętności komunikacyjne, otwartość na bezpośredni kontakt z Klientem końcowym
  • Certyfikaty z Databricks lub Azure będą dodatkowym atutem

 

Zakres obowiązków:

  • Projektowanie i wdrażanie nowych rozwiązań oraz wprowadzanie usprawnień w istniejących platformach danych
  • Udział w rozwoju platform danych i procesów ETL/ELT, optymalizacja przetwarzania dużych zbiorów danych zgodnie z najlepszymi praktykami inżynierii danych
  • Standaryzacja i usprawnianie procesów technicznych – implementacja standardów kodowania, testowania i zarządzania dokumentacją
  • Dbanie o jakość kodu i zgodność z przyjętymi standardami – przeprowadzanie regularnych code review
  • Aktywna współpraca z innymi ekspertami technologicznymi, w celu doskonalenia procesów oraz identyfikacji nowych wyzwań technologicznych
  • Mentoring i wsparcie zespołu w zakresie projektowania rozwiązań, optymalizacji procesów i wdrażania najlepszych praktyk

 

Klient oferuje:

  • Udział w międzynarodowych projektach opartych na najnowocześniejszych technologiach chmurowych
  • Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks)
  • 60 płatnych godzin rocznie na naukę i rozwój
  • Możliwość wyboru między pracą zdalną a spotkaniami w biurze
  • Indywidualnie dopasowane benefity: prywatna opieka medyczna, dofinansowanie karty sportowej, kursy językowe, premie roczne i medialne oraz bonus za polecenie nowego pracownika (do 15 000 PLN)

Tech stack

    English

    C1

    Databricks

    advanced

    SQL

    advanced

    Python

    advanced

    Airflow

    regular

    Apache Kafka

    regular

    Cloud

    regular

    DBT

    regular

    Databases

    regular

    Flink

    regular

    Apache Hadoop

    regular

Office location

Published: 23.07.2025