Cześć! Dołącz do ekspertów zajmujących się tworzeniem nowoczesnych systemów analizy danych, ich integracji oraz przetwarzania w środowisku chmurowym. Praca w globalnym otoczeniu pozwoli Ci zdobyć doświadczenie w innowacyjnych technologiach i zaawansowanych metodach obróbki danych.
📍 Praca głównie zdalna (wizyta w biurze w Warszawie raz na 2 tyg.)
💰 B2B: 150 – 165 pln netto+vat/h
Twoje zadania:
- Projektowanie oraz doskonalenie rozwiązań na platformach danych.
- Współpraca z klientami i dostawcami w zakresie decyzji architektonicznych.
- Kierowanie zespołem inżynierów i analityków danych.
- Optymalizacja procesów związanych z kodowaniem, testowaniem i dokumentacją.
- Tworzenie oraz doskonalenie standardów rozwoju. Kontrola jakości poprzez przeglądy kodu.
- Bezpośrednie zaangażowanie w zadania inżynieryjne i analityczne.
Wymagania:
- Min. 5 lat doświadczenia w systemach analitycznych i przetwarzaniu danych.
- Znajomość relacyjnych i nierelacyjnych baz danych.
- Bardzo dobra znajomość SQL i Python.
- Doświadczenie z narzędziami do orkiestracji danych: Spark/Databricks (w tym mechanizmy structured streaming, DLT, itp.), Hadoop/CDP, Azure/Fabric Data Factory, Apache Flink, Apache Kafka, Apache Airflow, dbt, Debezium.
- Znajomość data governance, data quality, batch/streaming.
- Znajomość architektury danych (np. Data Mesh, Medallion Architecture).
- Doświadczenie w usługach danych na Azure/AWS.
- Samodzielność, odpowiedzialność, angielski min. B2.
Mile widziane:
- Znajomość Scala lub R.
- Doświadczenie w CI/CD.
- Certyfikaty branżowe (Microsoft, AWS, Databricks).
- Znajomość narzędzi zarządzania projektami (JIRA, ClickUp, Confluence).
- Doświadczenie w code review i zarządzaniu zespołem.
- Praca w środowisku zwinnym.