🌴 Forma pracy: długoterminowo, fulltime, 100% zdalnie 👈
⏰ Start: 21/07/2025 👈
Cześć! 👋
W imieniu naszego klienta z USA poszukujemy doświadczonych Data Engineerów ze znajomością Machine Learningu. Firma wspiera organizacje w transformacji chmurowej, realizując projekty w różnych branżach i obszarach – od migracji danych, przez ich integrację, aż po optymalizację istniejących rozwiązań. Obecnie tworzymy zespół, który będzie przeprowadzał migrację z modelu ML AWS SageMaker do Databricks oraz budował i optymalizował modele chmurowe.
Projekt prowadzony dla firmy z USA, ale wymagana jest praca jedynie z niewielką zakładką godzinową (np. od 10:00 do 18:00), więc chętnie dogadamy się jeśli chodzi o godziny pracy. Zależy im na długofalowej współpracy, dlatego osoby zaangażowane w jeden projekt płynnie przechodzą do kolejnych inicjatyw w ramach tego samego środowiska. Projekty różnią się długością, ale zapotrzebowanie na kompetencje specjalistów pozostaje stałe.
Codzienne zadania:
📍Migracja komponentów ML z AWS SageMaker (training jobs, endpointy) do Databricks
📍Wdrażanie modeli do środowiska produkcyjnego, monitoring metryk i retraining
📍Współpraca z zespołem data/platform nad integracją modeli z istniejącą architekturą danych
📍Przygotowanie planu implementacji do uruchomienia na żywo
📍Automatyzacja i optymalizacja procesów ETL
Wymagania:
⚡️ 7 lat doświadczenia w roli Data Engineera
⚡️ Bardzo dobra znajomość platformy Databricks oraz frameworku Apache Spark (w szczególności PySpark)
⚡️ Doświadczenie w migracjach rozwiązań ML (np. z SageMaker do Databricks) i przenoszeniu pipeline’ów do środowiska chmurowego
⚡️ Praktyczne doświadczenie z usługami AWS, szczególnie S3, EC2, SageMaker
⚡️ Udział w projektach opartych na uczeniu maszynowym lub AI, także w środowiskach produkcyjnych
⚡️ Bardzo dobra znajomość Pythona
⚡️ Doświadczenie z platformami chmurowymi takimi jak AWS lub Azure
⚡️ Angielski na poziomie umożliwiającym swobodną komunikację w zespole
Mile widziane:
⚡️ Znajomość usług chmurowych Microsoft Azure (np. Data Factory, Synapse, Logic Apps)
⚡️ Doświadczenie z MLflow, Feature Store, Delta Lake, CI/CD modeli, monitorowaniem driftu
⚡️ Praktyka w pracy z bazami big data lub NoSQL (np. Redshift, EMR, Hadoop, Google BigQuery)
⚡️ Ogólne zrozumienie narzędzi do zarządzania pipeline’ami danych (DBT, Airflow, SSIS, etc.) – jako uzupełnienie do współpracy z zespołem Data Engineeringowym
Net per hour - B2B
Check similar offers