#1 Job Board for tech industry in Europe

  • Job offers
  • Data Engineer (Senior & Mid) w/ Databricks
    Data

    Data Engineer (Senior & Mid) w/ Databricks

    Warszawa
    Type of work
    Full-time
    Experience
    Mid
    Employment Type
    B2B
    Operating mode
    Remote

    Tech stack

      Databricks

      advanced

      ETL

      advanced

      Python

      regular

    Job description

    Online interview

    IT LeasingTeam realizuje usługi w zakresie pozyskiwania dla organizacji wysokiej klasy specjalistów i kadry zarządzającej z obszaru IT a także rozwija i wdraża nowoczesne rozwiązania IT w ramach outsourcingu procesów. IT LeasingTeam wspiera procesy biznesowe firm, umożliwiając im zwiększenie elastyczności i budowanie przewagi konkurencyjnej.


    Aktualnie dla jednego z naszych klientów poszukujemy kandydatów na stanowisko:

    Data Engineer w/ Databricks (Mid i Senior)


    Dla Kogo: Dołączysz do innowacyjnej firmy biotechnologicznej. Będziesz częścią zespołu, który rozwija zaawansowane rozwiązania związane z analizą danych w branży medycznej i life sciences. Pracuj w dynamicznym środowisku, w którym technologie mają realny wpływ na zdrowie milionów ludzi na świecie.

    Zatrudnienie: Umowa o współpracy B2B, pełen wymiar godzin, długofalowa współpraca.

    Stawka: Twoja stawka netto (faktura VAT).

    Typ Pracy: Zdalnie z Polski, z możliwością wizyt w biurze w Warszawie na prośbę pracodawcy.

    Zakres Obowiązków:

    • Projektowanie, rozwój i automatyzacja wydajnych procesów przetwarzania danych (ETL), oczyszczania danych oraz ich przygotowania do analiz, z wykorzystaniem Apache Spark i Pythona.
    • Tworzenie, optymalizacja i utrzymywanie pipeline'ów danych w środowisku Databricks - kluczowa technologia, której znajomość jest niezbędna.
    • Programowanie w Pythonie jako głównym języku do tworzenia skryptów i pipeline"ów danych, w tym przetwarzania danych strumieniowych i batchowych.
    • Udział w pełnym cyklu rozwoju oprogramowania: od zbierania wymagań biznesowych, przez projektowanie i implementację, aż po wdrożenie i wsparcie.
    • Współpraca z analitykami, architektami i innymi zespołami w celu optymalizacji dostarczanych rozwiązań oraz zapewnienia ich zgodności z potrzebami biznesu.
    • Monitorowanie wydajności systemów danych, analiza i rozwiązywanie problemów technicznych, w tym tuning zapytań Spark i optymalizacja pipeline"ów Databricks.
    • Udział w tworzeniu standardów i najlepszych praktyk w zakresie zarządzania danymi, z naciskiem na architekturę lakehouse (Delta Lake).


    WYMAGANIA:


    Dla Mid Data Engineer:

    • Posiadasz min. 5 lat doświadczenia w inżynierii danych, w tym praktyczną znajomość Databricks oraz Apache Spark.
    • Biegła znajomość Pythona do tworzenia pipeline'ów danych, skryptów automatyzujących oraz analizy danych.
    • Znasz SQL na poziomie umożliwiającym tworzenie, optymalizację i debugowanie zapytań, a także pracę z dużymi zbiorami danych w środowisku big data.
    • Masz doświadczenie w pracy z procesami ETL, zarządzaniem pipeline'ami danych oraz ich automatyzacją w środowisku chmurowym (AWS).
    • Doświadczenie w integracji danych z różnych źródeł, w tym z API oraz przetwarzania danych strumieniowych (real-time processing).
    • Pracowałeś/aś w środowisku Agile, znasz narzędzia takie jak JIRAConfluence.
    • Mile widziana znajomość Terraform oraz narzędzi do zarządzania metadanymi (np. Collibra).

    Dla Senior Data Engineer:

    • Posiadasz min. 8 lat doświadczenia w inżynierii danych, w tym zaawansowaną znajomość DatabricksApache Spark oraz architektury lakehouse (Delta Lake).
    • Jesteś ekspertem w programowaniu w Pythonie, potrafisz tworzyć zaawansowane skrypty oraz optymalizować procesy przetwarzania danych przy użyciu Spark API.
    • Masz doświadczenie w pracy z narzędziami big data, przetwarzaniem danych strumieniowych oraz integracją z różnymi systemami (RESTful API, CRM).
    • Ekspert w zakresie SQL, w tym optymalizacji zapytań i pracy z wielowymiarowymi modelami danych.
    • Posiadasz doświadczenie w tworzeniu zaawansowanych raportów i dashboardów (Tableau) oraz ich optymalizacji pod kątem wydajności.
    • Pracowałeś/aś w środowisku Agile, prowadząc projekty na dużą skalę i koordynując zespoły cross-funkcjonalne.
    • Znajomość AWSTerraform, oraz doświadczenie z CI/CD (np. GitLab CI/CD) będą istotnymi atutami.


    OFERTA:


    • Stabilna współpraca B2B z perspektywą długoterminowego zaangażowania.
    • Praca zdalna z elastycznymi godzinami, możliwość pracy hybrydowej w biurze w Warszawie.
    • Atrakcyjne wynagrodzenie zależne od doświadczenia.
    • Praca nad nowoczesnymi rozwiązaniami w branży biotechnologicznej, mającymi realny wpływ na życie ludzi.
    • Zatrudnienie w zespole specjalistów, w którym możesz liczyć na wymianę wiedzy i dalszy rozwój zawodowy.


    W razie pytań, serdecznie zapraszam do kontaktu

    Kamil


    Check similar offers

    Oracle Apex Developer (100% remote)

    New
    Crestt
    6.15K - 7.38K USD
    Warszawa
    , Fully remote
    Fully remote
    Git
    Apex
    Oracle SQL

    Data Scientist

    New
    emagine Polska
    5.32K - 5.93K USD
    Warszawa
    , Fully remote
    Fully remote
    Python
    SQL
    Data Science

    Data Engineer

    New
    DCV Technologies
    4.64K - 5.13K USD
    Wrocław
    , Fully remote
    Fully remote
    Spark
    Azure
    Scala

    Automation Specialist (No-code/Prompt Developer)

    New
    BlockWise
    2.93K - 3.91K USD
    Warszawa
    , Fully remote
    Fully remote
    n8n
    Make

    Programista PL/SQL

    New
    Aplikacje Krytyczne
    3.05K - 3.79K USD
    Warszawa
    , Fully remote
    Fully remote
    Oracle Reports
    SQL
    Oracle Forms