Projektowanie, trenowanie i optymalizacja dużych modeli językowych (LLM) dla różnorodnych zastosowań biznesowych.
Wdrażanie i skalowanie modeli w środowiskach produkcyjnych, w tym fine-tuning i dostosowywanie do specyficznych potrzeb klientów.
Analiza i poprawa wydajności modeli pod kątem metryk takich jak dokładność, latencja i zużycie zasobów.
Współpraca z zespołami Data Science, MLOps oraz inżynierami backendu w celu integracji modeli z istniejącymi systemami.
Eksploracja nowych architektur i technik w dziedzinie NLP, takich jak few-shot learning, RAG (Retrieval-Augmented Generation) czy continual learning.
Prowadzenie badań i prototypowanie nowych rozwiązań opartych na najnowszych publikacjach naukowych.
Mentoring mniej doświadczonych członków zespołu i dzielenie się wiedzą techniczną.
Czego oczekujemy?
Minimum 5 lat doświadczenia w pracy z modelami uczenia maszynowego, w tym co najmniej 3 lata z modelami językowymi (NLP/LLM).
Głęboka znajomość frameworków takich jak PyTorch, TensorFlow, Hugging Face Transformers, LangChain lub podobnych.
Doświadczenie w pracy z narzędziami do zarządzania danymi i trenowania modeli, np. DVC, Weights & Biases, MLflow.
Praktyczna wiedza na temat wdrażania modeli w chmurze (AWS, GCP, Azure) oraz optymalizacji pod kątem skalowalności (np. Kubernetes, Ray, Triton Inference Server).
Znajomość technik takich jak quantization, pruning, distillation w celu optymalizacji modeli.
Umiejętność programowania w Pythonie na zaawansowanym poziomie oraz doświadczenie w pracy z bibliotekami do przetwarzania danych (np. Pandas, NumPy).
Dobra znajomość języka angielskiego (min. B2) – praca w międzynarodowym zespole.
Mile widziane: publikacje nau
44 - 52 USD/h
Net per hour - B2B
Apply for this job
Informujemy, że administratorem danych jest Toro Performance Sp. z o.o. z siedzibą w Poznań 60-529 , ul. Jana Henryka D...more