Data Engineer

Data

Data Engineer

Data
Czerska 12, Warszawa

dentsu Polska

Full-time
Permanent
Mid
Hybrid

Job description

Grupa dentsu to globalna sieć komunikacji marketingowej stworzona z myślą o przyszłości. W jej skład wchodzą marki: Carat, iProspect, Amplifi, dentsu X i Dentsu Creative.

Przyjmując skoncentrowane na ludziach podejście do transformacji biznesowej, wykorzystujemy naszą wnikliwość do łączenia marki, contentu, handlu i doświadczenia - wszystko w oparciu o innowacyjną kreatywność.

Nasza główna siedziba znajduje się w Tokio, a 65 000 ekspertów pracuje w czterech regionach (Japonia, Ameryka, EMEA i APAC). dentsu łączy japońską innowacyjność ze zróżnicowaną, globalną perspektywą, aby napędzać rozwój klientów i kształtować społeczeństwo.

 

Do zespołu Data Engineering dentsu Polska poszukujemy Data Engineera (K/M), który będzie rozwijał i utrzymywał platformę danych dentsu opartą na Google Cloud Platform. 

 

ZADANIA

  • Projektowanie i rozwój pipeline’ów danych w Pythonie, uruchamianych w Airflow / Cloud Composer. 

  • Budowa i utrzymanie warstw danych bronze i silver, zgodnych ze standardami platformy. 

  • Integracja danych z różnych źródeł (API, systemy marketingowe, pliki, dane semi‑/nieustrukturyzowane). 

  • Praca z BigQuery - modelowanie danych, zapytania, optymalizacja oraz przygotowanie danych do raportowania i modeli. 

  • Utrzymanie i rozwój przetwarzania w środowisku GCP (Cloud Run, Cloud Functions, Pub/Sub, GCS). 

  • Implementacja mechanizmów stabilności: monitoring, alerting, retry, walidacje danych. 

  • Praca z repozytorium kodu (GitHub). 

  • Współpraca z Analytics, Data Science i Research w przygotowaniu danych do analiz i produktów danych. 

  • Udział w projektach integracyjnych i migracyjnych po stronie klientów (m.in. konsolidacja źródeł, przenoszenie procesów danych, integracje API). 

  • Tworzenie dokumentacji technicznej kodu, pipeline’ów i procesów.  

WYMAGANIA

  • Min. 3 lata doświadczenia w obszarze Data Engineeringu 

  • Bardzo dobra znajomość Python w zastosowaniach inżynierskich (pipeline’y danych, integracje, lekkie serwisy backendowe). 

  • Doświadczenie w budowie pipeline’ów w Airflow  

  • Praktyczne doświadczenie w pozyskiwaniu danych z różnych źródeł, w szczególności API (REST), ale również z innych form integracji 

  • Praktyczna praca z repozytorium kodu Git/GitHub  

  • Doświadczenie z chmurą (GCP/AWS/Azure) u nas preferowana Google Cloud Platform, ale otwarci jesteśmy na osoby z innym doświadczeniem chmurowym. 

  • Praca z analitycznym DWH (BigQuery lub odpowiednik). 

  • Umiejętność debuggowania, diagnozowania i rozwiązywania problemów w pipeline’ach danych. 

  • Angielski min. B2. 

Mile widziane 

·       Znajomość usług serverless (np. Cloud Run, Cloud Functions, AWS Lambda, Azure Functions etc.) stosowanych do budowy skalowalnych komponentów przetwarzania i integracji danych. 

·       Doświadczenie z Infrastructure as Code (Terraform lub inne narzędzia do automatyzacji infrastruktury chmurowej). 

·       Znajomość Dockera i pracy z kontenerami 

·       Przetwarzanie big‑data (PySpark / Spark / GCP DataProc lub analogiczne środowiska rozproszone). 

·       Przetwarzanie streaming i event‑driven (Kafka / Pub/Sub etc,). 

·       Praktyczna znajomość pracy w środowiskach Linux oraz narzędziach CLI (bash / shell / PowerShell), w tym praca z GCP/AWS CLI, logami i lokalnym debugowaniem pipeline’ów 

·       Doświadczenie z elementami DataOps (tworzenie powtarzalnych procesów danych: CI/CD dla pipeline’ów, automatyzacje, quality gates, standaryzacja przepływów danych) 

·       Doświadczenie z danymi nieustrukturyzowanymi 

·       Znajmość frameworków warstwy analitycznej (np. Dataform lub podobne narzędzia budujące warstwy SQL/analytics) 

·       Doświadczenie z testowaniem i kontrolą jakości danych (testy integracyjne, walidacje, data quality checks etc.) 

·       Doświadczenie z monitoringiem i observability (logowanie, alerting, analiza awarii pipeline’ów) 

·       Znajomość różnych środowisk chmurowych  

·       Podstawy MLOps (np. MLflow, Vertex AI, pipeline’y ML, wersjonowanie modeli/artefaktów) 

·       Doświadczenie w pracy z narzędziami AI‑assisted development (np. Cursor, Claude Code etc) 

·       Doświadczenie w pracy z danymi marketingowymi, mediowymi lub CRM. 

·       Doświadczenie w pracy agencyjnej 

 OFERUJEMY

  • Pracę w globalnej, dynamicznie rozwijającej się grupie z obszaru komunikacji marketingowej;

  • Samodzielność w działaniu w zakresie powierzonych zadań;

  • Możliwość rozwoju w ramach grupy dentsu w Polsce i na świecie;

  • Szkolenie on-boardingowe i programy rozwojowe;

  • 3 dodatkowe, wolne dni płatne - tzw. „Wellness days”;

  • 2 dodatkowe dni przeznaczone na wolontariat pracowniczy;

  • Summer Fridays - w okresie wakacyjnym (od czerwca do września, w piątki kończymy pracę 2 godziny wcześniej);

  • Hybrydowy tryb pracy – zależnie od ustaleń w zespole;

  • Wewnętrzne programy szkoleniowe

  • Nowoczesne i komfortowe biuro zgodnie z ideą work-life-balance, oferujące między innymi takie udogodnienia jak siłownia i sala fitness, punkt opieki dziennej dla dzieci DAY CARE;

  • Finansowany przez pracodawcę abonament medyczny w Medicover z możliwością rozszerzenia o dodatkowe usługi;

  • Finansowane przez pracodawcę Ubezpieczenie na życie UNUM z możliwością rozszerzenia o dodatkowe pakiety;

  • Kafeteria NAIS;

 

Tech stack

    Polish

    C1

    English

    B2

    Data

    advanced

    Python

    advanced

    API

    regular

    Airflow

    regular

Office location

Data Engineer

Summary of the offer

Data Engineer

Czerska 12, Warszawa
dentsu Polska
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. Informujemy, że administratorem danych jest Grupa dentsu Polska z siedzibą w 00-732 Warszawa, ul. Czerska 12 (dalej jako "administrato... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.