Poszukujemy doświadczonego Senior / Principal Data Scientist do zespołu rozwijającego zaawansowane rozwiązania optymalizacyjne dla globalnego lidera technologii w branży lotniczej. Twoja praca będzie koncentrować się na analizie danych, budowaniu modeli predykcyjnych oraz tworzeniu oprogramowania optymalizacyjnego, które realnie wpłynie na kształt przyszłości transportu lotniczego.
Stawka do 200 PLN netto + Vat na godzinę na B2B.
Praca zdalna + 1-2 razy w roku mogą pojawić się wyjazdy służbowe na terenie Polski.
- Analiza danych i modelowanie predykcyjne w celu optymalizacji operacji oraz przewidywania zachowań klientów.
- Tworzenie dedykowanych modeli danych i algorytmów oraz przeprowadzanie Proof of Concept.
- Optymalizacja dużych zbiorów danych przy użyciu zaawansowanych metod statystycznych i Machine Learning.
- Współpraca z zespołem inżynierów przy implementacji i testowaniu kodu dla modeli AI/ML.
- Prezentowanie wyników analiz oraz prowadzenie szkoleń z obsługi i utrzymania oprogramowania dla klientów.
- Ciągłe doskonalenie oprogramowania optymalizacyjnego oraz jego dostosowywanie do potrzeb biznesowych klientów.
- Min. 5 lat doświadczenia w roli Data Engineera/Data Scientist lub podobnej roli
- Wykształcenie wyższe w dziedzinie Statystyki, Operations Research, Informatyki, Matematyki lub Machine Learning.
-
Doświadczenie w modelowaniu i analizie danych oraz praktyczne zastosowanie umiejętności analitycznych do rozwiązywania rzeczywistych problemów.
-
Zaawansowane umiejętności w zakresie optymalizacji przy użyciu solverów takich jak CPLEX i Gurobi dla programowania liniowego (LP) oraz całkowitoliczbowego (IP).
-
Biegłość w programowaniu w C++ oraz Java i doświadczenie w rozwijaniu złożonych algorytmów optymalizacyjnych.
-
Znajomość chmurowych rozwiązań Google Cloud Platform (GCP) oraz minimum 4 z 7 wymienionych technologii:
-
MLOps zintegrowane z procesem CI/CD dla modeli Machine Learning (min. 2 lata)
-
Wdrażanie API Machine Learning na GCP z wykorzystaniem Google Kubernetes Engine (GKE) (min. 2 lata)
-
Vertex AI i BigQuery w GCP (min. 1 rok)
-
Terraform oraz technologie konteneryzacji (min. 2 lata)
-
Dataflow i Dataproc w GCP do przetwarzania danych (min. 2 lata)
-
Monitorowanie modeli Machine Learning oraz autoskalowanie dla zadań predykcyjnych (min. 1 rok)
-
Feature Store, Artifacts Registry oraz Analytics Hub w GCP do zarządzania danymi i modelami (min. 1 rok)
- Doświadczenie w branży lotniczej, kolejowej lub w zarządzaniu łańcuchem dostaw.
- Znajomość systemów wspierania decyzji oraz rozwiązań do planowania sieci, zasobów i harmonogramowania zadań.
- Wiedza z zakresu planowania sieci lotniczych, zarządzania rozkładami oraz rozwiązywania problemów operacyjnych.
Nie zwlekaj i zaaplikuj już teraz!