Poszukujemy analityka danych ze znajomością ETL oraz zasad zarządzania jakością danych. Kluczowe będzie doświadczenie w budowie przepływów danych (pipelines), zapewnianiu spójności danych oraz pracy z narzędziem Dataiku.
- Projektowanie, rozwój i utrzymanie procesów ETL zgodnych z potrzebami raportowymi i biznesowymi
- Analiza danych kredytowych i identyfikacja problemów jakościowych
- Monitorowanie jakości danych i wdrażanie zasad governance
- Pisanie specyfikacji technicznych, przeprowadzanie testów jednostkowych
- Wdrażanie usprawnień w istniejących przepływach danych
- Udział w spotkaniach projektowych i współpraca z zespołami IT/biznesowymi
- Doświadczenie z narzędziami ETL (Dataiku, Alteryx, Talend – preferowane Dataiku)
- Bardzo dobra znajomość SQL i pracy z dużymi zbiorami danych
- Umiejętność pracy w środowisku Agile
- Doświadczenie w tworzeniu specyfikacji technicznych i testów jednostkowych
- Podstawowa znajomość Pythona
- Znajomość zasad zarządzania jakością danych i kontroli wersji w Dataiku (GIT)
- Biegłość w języku angielskim (w mowie i piśmie)
- Otwartość na pracę w międzynarodowym środowisku
Mile widziane:
- Znajomość procesów związanych z kredytem korporacyjnym
- Doświadczenie w pracy nad projektami międzyregionalnymi
- Umiejętność logicznego myślenia i modelowania danych
- Dataiku 13.2.0
- SQL Developer 24.3
- 360 Suite
- Jira