Na co dzień w naszym zespole:
- budujesz wraz zespołem procesy zasilania operacyjnej składnicy danych,
- projektujesz i realizujesz rozwiązania informatyczne w obszarze zasilania danych,
- analizujesz dane i przygotowujesz modele logiczne i fizyczne danych,
- przygotowujesz datamarty tematyczne,
- tworzysz koncepcję rozwiązań w oparciu o wymagania i potrzeby biznesu,
- implementujesz nowe rozwiązania,
- usuwasz incydenty i współuczestniczysz w rozwiązywaniu problemów,
- wspierasz proces testowania i wdrażania zmian w zakresie procesów zasilania danych,
- pomagasz przy serwisowaniu wdrożonego oprogramowania,
- opracowujesz dokumentację do rozwijanych systemów,
- pracujesz w zgodzie z modelem DevOps.
To stanowisko może być Twoje, jeśli:
- znasz bash, SQL, PL/SQL,
- korzystasz z Linux’a na poziomie zaawansowanego użytkownika,
- pracujesz z bazą danych Google BigQuery,
- masz doświadczenie w pracy z dużymi wolumenami danych ~500TB,
- posiadasz wykształcenie wyższe na kierunku informatyka.
Dodatkowym atutem będzie znajomość:
- znajomość języka: python, java,
- znajomość narzędzi do monitorwania np. grafana,
- aplikacji do harmonogramowania zadań Airflow,
- baz danych PostgreSQL,
- GIT,
- aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
- zagadnień machine learning i AI,
- rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np. data flow,
- języka angielskiego na poziomie umożliwiającym posługiwanie się dokumentacją.
Dołączając do nas zyskujesz:
- pakiet benefitów, w tym prywatną opiekę medyczną, Pracowniczy Program Emerytalny, System Kafeteryjny MyBenefit, kartę Multisport,
- atrakcyjną ofertę produktów bankowych, w tym kredytu hipotecznego,
- dedykowany system szkoleń,
- możliwość zdobywania doświadczenia, poznania różnorodnej technologii, w największej instytucji finansowej w kraju,
- stabilizację zatrudnienia – umowę o pracę, dedykowany system premiowy.