Senior Data Engineer (AWS)
Centrum, Wrocław +4 Locations
GS Services
Poszukujemy superbohatera – Senior Data Engineera! 🦸♀️🦸♂️
Zlecono nam misję specjalną, dzięki której możesz stać się bohaterem naszego klienta. Poniżej znajdziesz informacje na temat oferty oraz supermoce, które będą Ci potrzebne do stawienia czoła wyzwaniom. Nie ma na co czekać, misja sama się nie zrobi – aplikuj na ofertę!
⚡ Stawka do 170-180 zł/h netto
⚡ 100% zdalnie
⚡ Umowa B2B
⚡ Start ASAP
⚡ Projekt planowany do 31/05/2026
✨Wymagane supermoce:
Ponad 3 lata doświadczenia jako inżynier danych lub inżynier oprogramowania pracujący nad infrastrukturą danych.
Bardzo dobra znajomość języka Python oraz praktyczne doświadczenie w pracy z SQL i Snowflake.
Doświadczenie w pracy z nowoczesnymi narzędziami do koordynacji, takimi jak Airflow, oraz platformami do strumieniowego przesyłania danych, takimi jak Kafka.
Znajomość modelowania danych, zarządzania danymi i optymalizacji wydajności w środowiskach magazynów danych.
Swoboda działania w środowisku natywnym dla chmury (np. AWS, Terraform, Docker).
Dodatkowe wymagania dotyczące języka Python:
wymagane jest doświadczenie w pobieraniu danych z interfejsów API i zarządzaniu nimi
mile widziane jest doświadczenie w scrapingu stron internetowych za pomocą automatyzacji przeglądarki (na przykład playwright / selenium / puppeteer)
🚀 Twoja misja:
Nasz klient buduje zespół ekspertów tworzących wiodące w swojej kategorii produkty, które wyróżniają się na najbardziej konkurencyjnych rynkach świata — od iGaming i zakładów sportowych po finanse osobiste.
Projekt polega na gromadzeniu danych dotyczących poziomu graczy dla naszych marek, co pomaga nam śledzić przychody na różnych stronach/markach oraz lepiej zrozumieć, w jaki sposób użytkownicy korzystają z naszych produktów i jakie są aktualne trendy. Naszą wizją jest stanie się głównym źródłem informacji na temat ścieżki użytkownika, umożliwiającym naszej firmie podejmowanie mądrzejszych, szybszych i bardziej skutecznych decyzji, które przyczyniają się do rozwoju handlowego i innowacji produktowych.
Twoje zadania:
Budowanie połączeń z partnerami zewnętrznymi w celu gromadzenia danych.
Tworzenie niestandardowych funkcji do przetwarzania danych.
Integracja danych z narzędziem Snowflake i innymi narzędziami do raportowania.
Współpraca między zespołami i działami w celu zapewnienia wysokiej jakości i szybkości danych.
Promowanie i kwestionowanie istniejących rozwiązań w celu ich dalszego ulepszania i optymalizacji.
Jak będziesz pracować:
Projektowanie, tworzenie i utrzymywanie potoków ETL/ELT oraz przepływów pracy w trybie wsadowym/strumieniowym.
Integracja danych z zewnętrznych interfejsów API i systemów wewnętrznych z narzędziami Snowflake i narzędziami niższego szczebla.
Odpowiedzialność za kluczowe elementy naszej warstwy koordynacyjnej opartej na Airflow oraz strumieni zdarzeń opartych na Kafka.
Zapewnienie jakości, niezawodności i obserwowalności danych w naszych potokach i platformach.
Tworzenie wspólnych narzędzi i frameworków danych do obsługi przypadków użycia związanych z analityką i raportowaniem.
Ścisła współpraca z analitykami, menedżerami produktu i innymi inżynierami w celu wspierania decyzji opartych na danych.
🎁Benefity:
Wybierz sam swoje benefity! - korzystamy z systemu kafeteryjnego,
Szybki (bo 7-dniowy) termin płatności faktur,
Sprzęt służbowy.
Aplikuj na ofertę, wierzymy w Ciebie i w Twoje supermoce! 🐱💻