#1 Job Board for tech industry in Europe

  • Job offers
  • All offersPoznańDataData Engineer
    Data Engineer
    new
    Data
    Żabka Future

    Data Engineer

    Żabka Future
    Poznań
    Type of work
    Full-time
    Experience
    Mid
    Employment Type
    B2B
    Operating mode
    Hybrid

    Tech stack

      SQL

      regular

      Snowlake

      regular

      Airflow

      regular

      Python

      regular

      BigQuery

      regular

    Job description

    Departament Technologii Żabki Future liczy ponad 200 osób - ekspertów, którzy realizują na co dzień transformację cyfrową Grupy Żabka. Tworzą go zespoły z obszaru systemów Corowych, utrzymania ruchu i infrastruktury, ERP, big data, wspierające logistykę, obszar sklepu, franczyzobiorców, klienta i pracowników. Dodatkowo znajdziesz u nas również zespół zajmujący się cyberbezpieczeństwem oraz team dbający o governance. Rozwijamy również systemy analityczne i algorytmy. Pracujemy w podejściu produktowym opartym o zwinne metodyki.


    Data Engineer

    Siedziba firmy: Poznań


    Twoje zadania: 


    • Projektowanie, budowanie i zarządzanie przepływami danych, które umożliwiają analizę i interpretację danych biznesowych.  
    • Tworzenie i optymalizacja potoków danych, integracja danych z wielu źródeł oraz ich przetwarzanie przy użyciu narzędzi takich jak Airflow czy Snowflake. 
    • Projektowanie i implementacja modeli danych, przy użyciu języków programowania takich jak Python czy SQL.  
    • Monitorowanie wydajności i optymalizacja kosztów procesów integracji danych. 
    • Współpraca z innymi członkami zespołu, w tym analitykami danych i inżynierami oprogramowania,  
    • Komunikacja z interesariuszami biznesowymi w celu zrozumienia ich potrzeb i wymagań dotyczących danych. 


    Oczekiwania: 


    • 3-5 lat doświadczenia w inżynierii danych, ze szczególnym uwzględnieniem potoków ELT/ETL i przetwarzania danych przy użyciu Airflow, BigQuery, Snowflake. 
    • Znajomość najlepszych standardów projektowania, kodowania, dokumentowania i wdrażania procesów integracji danych z naciskiem na optymalizację kosztów. 
    • Wysoka umiejętność analizy i projektowania modeli danych za pomocą zapytań, procedur składowanych oraz tasków w języku SQL oraz python. 
    • Praktyczna znajomość chmury obliczeniowej GCP/Azure oraz dobra znajomość środowiska Linux z umiejętnością skryptowania bash. 


    Mile widziane: 


    • Znajomość Snowflake/BigQuery. 
    • Znajomość narzędzi do konteneryzacji (docker, podman, k8s) lub znajomość narzędzi do monitoringu (grafana, splunk)/ procesów automatyzacji (CI/CD)