#1 Job Board for tech industry in Europe

Data + ML Engineer
New
Data

Data + ML Engineer

46 - 54 USD/hNet per hour - B2B
46 - 54 USD/hNet per hour - B2B
Type of work
Full-time
Experience
Senior
Employment Type
B2B
Operating mode
Remote

Tech stack

    English

    B2

    Databricks

    advanced

    AWS

    advanced

    PySpark

    advanced

    Machine Learning

    regular

    Sagemaker

    regular

Job description

Online interview
Friendly offer

🌴 Forma pracy: długoterminowo, fulltime, 100% zdalnie 👈

⏰ Start:  21/07/2025 👈

 

Cześć! 👋

W imieniu naszego klienta z USA poszukujemy doświadczonych Data Engineerów ze znajomością Machine Learningu. Firma wspiera organizacje w transformacji chmurowej, realizując projekty w różnych branżach i obszarach – od migracji danych, przez ich integrację, aż po optymalizację istniejących rozwiązań. Obecnie tworzymy zespół, który będzie przeprowadzał migrację z modelu ML AWS SageMaker do Databricks oraz budował i optymalizował modele chmurowe. 

Projekt prowadzony dla firmy z USA, ale wymagana jest praca jedynie z niewielką zakładką godzinową (np. od 10:00 do 18:00), więc chętnie dogadamy się jeśli chodzi o godziny pracy. Zależy im na długofalowej współpracy, dlatego osoby zaangażowane w jeden projekt płynnie przechodzą do kolejnych inicjatyw w ramach tego samego środowiska. Projekty różnią się długością, ale zapotrzebowanie na kompetencje specjalistów pozostaje stałe.

 

Codzienne zadania:

📍Migracja komponentów ML z AWS SageMaker (training jobs, endpointy) do Databricks

📍Wdrażanie modeli do środowiska produkcyjnego, monitoring metryk i retraining

📍Współpraca z zespołem data/platform nad integracją modeli z istniejącą architekturą danych

📍Przygotowanie planu implementacji do uruchomienia na żywo

📍Automatyzacja i optymalizacja procesów ETL

 

Wymagania:

⚡️ 7 lat doświadczenia w roli Data Engineera

⚡️ Bardzo dobra znajomość platformy Databricks oraz frameworku Apache Spark (w szczególności PySpark)

⚡️ Doświadczenie w migracjach rozwiązań ML (np. z SageMaker do Databricks) i przenoszeniu pipeline’ów do środowiska chmurowego

⚡️ Praktyczne doświadczenie z usługami AWS, szczególnie S3, EC2, SageMaker

⚡️ Udział w projektach opartych na uczeniu maszynowym lub AI, także w środowiskach produkcyjnych

⚡️ Bardzo dobra znajomość Pythona

⚡️ Doświadczenie z platformami chmurowymi takimi jak AWS lub Azure

⚡️ Angielski na poziomie umożliwiającym swobodną komunikację w zespole

Mile widziane:

⚡️ Znajomość usług chmurowych Microsoft Azure (np. Data Factory, Synapse, Logic Apps)

⚡️ Doświadczenie z MLflow, Feature Store, Delta Lake, CI/CD modeli, monitorowaniem driftu

⚡️ Praktyka w pracy z bazami big data lub NoSQL (np. Redshift, EMR, Hadoop, Google BigQuery)

⚡️ Ogólne zrozumienie narzędzi do zarządzania pipeline’ami danych (DBT, Airflow, SSIS, etc.) – jako uzupełnienie do współpracy z zespołem Data Engineeringowym

46 - 54 USD/h

Net per hour - B2B