Zakres obowiązków:
- projektowanie i modelowanie nowych struktur danych,
- budowa i utrzymywanie systemów danych,
- tworzenie ETL/ELT - batch i streaming,
- współpraca z developerami - specyfikowanie jakie dane są potrzebne i jak powinny być wytwarzane.
.
Wymagania:
- min. 4 lata doświadczenia na stanowisku inżyniera danych lub podobne,
- doświadczenie w projektowaniu i modelowaniu rozwiązań typu Lakehouse,
- doświadczenie w pracy z formatami danych takimi jak: parquet, delta, avro,
- bardzo dobra znajomość Pythona (PySpark) oraz SQL,
- wysoka samodzielność,
- umiejętności analityczne i dotyczące pracy z danymi,
- język angielski na poziomie umożliwiającym swobodną komunikację (min. B2),
- poczucie humoru :)
Mile widziane:
- znajomość platformy Databricks,
- doświadczenie w pracy w infrastrukturze AWS,
- doświadczenie w pracy w obszarze finansowym.
Rodzaj umowy /czas pracy:
- B2B, UoP,
- W przypadku B2B, 25 dni wolnych od pracy (w roku),
- Pełny wymiar czasu pracy (praca zdalna lub hybrydowa) / elastyczne godziny pracy.
Pakiety socjalne lub bonusy:
- 25 płatnych dni wolnych do wykorzystania w roku,
- pakiet 5 lub 10 dodatkowych dni wolnych w roku za przepracowane lata pracy,
- budżet szkoleniowy,
- zniżki na usługi PayPo,
- multisport,
- pakiet medyczny Medicover,
- ubezpieczenie na życie,
- zajęcia z języka angielskiego,
- działowe wyjścia integracyjne,
- imprezy i wyjścia firmowe,
- parking przy firmie.