Cześć! Poszukujemy osoby na stanowisko Lead Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze.
Jako Lead Data Engineer będziesz odpowiadać nie tylko za realizację zadań technicznych, ale również za zarządzanie zespołem 10 specjalistów, wspieranie ich rozwoju oraz dbanie o jakość i efektywność realizowanych projektów. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.
Lokalizacja: hybryda z przewagą zdalnej (min. 1 raz w tygodniu w Warszawie)
Widełki:
- B2B: 180 - 220 PLN netto + VAT/h
- UoP: 28 - 33 tys. brutto/mies.
Wymagania:
- Biegłość w SQL oraz Pythonie (min. 5 lat doświadczenia)
- Co najmniej 2-letnie doświadczenie w pracy z Databricks
- Doświadczenie w pracy w środowisku chmurowym (preferowany Azure)
- Doświadczenie w roli Leada lub chęć i gotowość do objęcia takiego stanowiska
- Minimum 5-letnie doświadczenie w projektowaniu oraz implementacji rozwiązań klasy BI, ETL/ELT, Data Warehouse, Data Lake, Big Data oraz OLAP
- Doświadczenie z narzędziami typu Apache Airflow, dbt, Apache Kafka, Flink, Azure Data Factory, Hadoop/CDP
- Praktyczna znajomość zarówno relacyjnych (np. SQL Server, PostgreSQL, Redshift, Teradata), jak i nierelacyjnych (np. MongoDB, Cosmos DB, DynamoDB)
- Znajomość zagadnień związanych z zarządzaniem danymi, jakością danych oraz przetwarzaniem wsadowym i strumieniowym
- Umiejętność stosowania wzorców architektonicznych w obszarze danych (Data Mesh, Data Vault, Modelowanie wymiarowe, Medallion Architecture, Lambda/Kappa Architectures)
- Praktyczna znajomość systemów kontroli wersji (Bitbucket, GitHub, GitLab)
- Wysoko rozwinięte umiejętności komunikacyjne, otwartość na bezpośredni kontakt z Klientem końcowym
- Certyfikaty z Databricks lub Azure będą dodatkowym atutem
Zakres obowiązków:
- Zarządzanie zespołem 10 Specjalistów – wsparcie techniczne, mentoring oraz optymalizacja procesów pracy
- Projektowanie i wdrażanie nowych rozwiązań oraz wprowadzanie usprawnień w istniejących platformach danych
- Udział w rozwoju platform danych i procesów ETL/ELT, optymalizacja przetwarzania dużych zbiorów danych zgodnie z najlepszymi praktykami inżynierii danych
- Standaryzacja i usprawnianie procesów technicznych – implementacja standardów kodowania, testowania i zarządzania dokumentacją
- Dbanie o jakość kodu i zgodność z przyjętymi standardami – przeprowadzanie regularnych code review
- Aktywna współpraca z innymi ekspertami technologicznymi w celu doskonalenia procesów oraz identyfikacji nowych wyzwań technologicznych
Klient oferuje:
- Udział w międzynarodowych projektach opartych na najnowocześniejszych technologiach chmurowych
- Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks)
- 60 płatnych godzin rocznie na naukę i rozwój
- Indywidualnie dopasowane benefity: prywatna opieka medyczna, dofinansowanie karty sportowej, kursy językowe, premie roczne i medialne oraz bonus za polecenie nowego pracownika (do 15 000 PLN)