Opis oferty:
Fastr.ai to startup z Doliny Krzemowej, który opracowuje technologię opartą na sztucznej inteligencji, umożliwiającą pracodawcom znalezienie najlepiej wykwalifikowanych kandydatów za pomocą jednego kliknięcia, co znacząco usprawnia proces rekrutacji. Wykorzystując modele uczenia maszynowego, porównujemy i rankingujemy kandydatów, dopasowując ich do ofert pracy, a także zapewniamy inne funkcjonalności, jak ekstrakcja kluczowych danych kandydata, jego doświadczenie i umiejętności.
Jest to oferta pracy na pełen etat, w pełni zdalna, posiadamy jednak biuro w Krakowie, gdybyś potrzebował przestrzeni biurowej do pracy lub chciał spotkać się z innymi współpracownikami. Pracujemy w małych zespołach o płaskiej strukturze, gdzie wspólnie ustalamy priorytety i podział zadań, konsultując i omawiając postępy podczas cotygodniowych spotkań z Product Ownerami (prowadzonymi w języku angielskim).
O stanowisku:
Do naszego zespołu poszukujemy ML Engineera z doświadczeniem we wdrażaniu modeli uczenia maszynowego (głównie modeli językowych) w środowisku produkcyjnym. Jako kluczowy członek zespołu będziesz miał bezpośredni wpływ na dostarczany przez nas produkt, zaczynając od projektu rozwiązania, poprzez jego implementację i wdrożenie, po monitorowanie działania i aplikowanie usprawnień. Jako ML Engineer w FastR, będziesz:
- Tworzyć stabilną i skalowalną architekturę opartą na mikroserwisach, wykorzystując relacyjne bazy danych i bazy wektorowe; oraz rozwijał i utrzymywał jej ML-ową część;
- Współpracować z Data Scientistami, Backend- i Frontent Developerami w celu wdrożania modeli ML do środowiska produkcyjnego i zastosowania ich w oferowanym produkcie;
- Obsługiwać środowiska dockerowe, a także definiować i implementować data pipelines w celu zapewnienia spójności między środowiskiem deweloperskim i produkcyjnym, oraz reprodukowalności eksperymentów i operacji;
- Tworzył czysty i zrozumiały kod produkcyjny, debuggował, i rozwiązywał złożone problem samodzielnie lub w zespole;
- Zarządzał zasobami i optymalizował koszty wykorzystywanych rozwiązań chmurowych.
Nasze oczekiwania:
- 2+ lata doświadczenia we wdrażaniu modeli uczenia maszynowego w środowisku produkcyjnym;
- Bardzo dobra znajomość języka programowania Python i dedykowanych mu narzędzi – znajomość bibliotek uczenia maszynowego (jak pytorch czy tensorflow), asynchronicznego wysyłania i przetwarzania zapytań (fastapi, asyncio), testowania, oraz innych bibliotek wspierających „czyste” programowanie (ruff, pre-commit, pip-tools);
- Praktyczna znajomość praktyk ML-Ops, najlepiej w połączeniu z usługami Azure (Azure Machine Learning Studio, Azure DevOps, Azure pipelines, Azure deployments)
- Znajomość narzędzi kontroli wersji (Git), przykładanie uwagi do czystego i zrozumiałego kodu, implementacja testów (unit, integration, performance testing);
- Znajomość technologii konteneryzacji (Docker, Kubernetes);
- Chęć rozwoju w zakresie uczenia maszynowego, szczególnie w obszarze przetwarzania języka naturalnego (NLP);
- Doświadczenie w projektach end-to-end, od ich definicji, poprzez implementację i wdrożenie, testowanie, po monitoring (Prometheus, Datadog);
- Kreatywność, umiejętność rozwiązywania problemów oraz priorytetyzacji zadań;
- Dyplom studiów wyższych z dziedziny informatyki lub pokrewnym;
- Bardzo dobra znajomość języka angielskiego, w mowie i piśmie.
Super, jeśli:
- Masz doświadczenie z ustrukturyzowanymi i nieustrukturyzowanymi danymi, a także bazami wektorowymi;
- Znasz SQL i umiesz tworzyć zapytania, aby wyciągnąć z bazy potrzebne informacje i interesujące podsumowania;
- Masz doświadczenie w optymalizacji i redukcji czasu inferencji modeli NLP;
- Znasz Redis, RedisInsight.
Jeśli jesteś zainteresowana/-y i chciałbyś dołączyć do naszego teamu, wyślij do nas swoje CV w języku angielskim.