Software Engineer (Prompt)
Kraków, Kraków
ASTEK Polska
Wynagrodzenie:
do 1 200 zł netto + VAT/dzień (B2B)
do 16 000 zł brutto (UoP)
Model pracy:
Kraków - praca hybrydowa (3 dni z biura)
Poszukujemy doświadczonego Prompt Engineera, który będzie projektować i optymalizować zaawansowane prompty dla przypadków użycia związanych z rozumieniem dokumentów i ekstrakcją danych. Osoba na tym stanowisku będzie ściśle współpracować z interesariuszami biznesowymi oraz zespołem ML, aby tworzyć skuteczne i bezpieczne rozwiązania oparte na modelach językowych.
Twoje codzienne obowiązki obejmują:
Projektowanie i optymalizacja promptów dostosowanych do specyficznych formatów dokumentów oraz zadań ekstrakcji danych
Analiza struktur, semantyki i relacji klucz–wartość w dokumentach
Tworzenie Proof of Concept (PoC) w Pythonie w celu weryfikacji skuteczności promptów i szybkiej iteracji
Utrzymywanie biblioteki promptów – dbanie o jakość, reużywalność oraz zgodność z wytycznymi bezpieczeństwa i prywatności
Walidacja promptów, testy obciążeniowe oraz modelowanie scenariuszy awaryjnych dla różnych LLM
Analiza jakości wyników modeli i dostosowywanie promptów w zależności od specyfiki LLM
Współpraca z inżynierami ML przy projektach fine-tuningu w celu poprawy dokładności modeli w określonych domenach dokumentów
Dokumentowanie najlepszych praktyk, strategii i wyników eksperymentów w ustrukturyzowany sposób
Identyfikowanie i przeciwdziałanie ryzykom związanym z prompt injection, halucynacjami modeli oraz innymi podatnościami LLM
Idealnie sprawdzisz się w tej roli, jeśli posiadasz:
Doświadczenie w pracy z prompt engineeringiem (min. 2 projekty LLM w środowisku produkcyjnym)
Bardzo dobra znajomość struktury i kontekstu promptów
Biegłość w Pythonie, w tym doświadczenie z API LLM, frameworkami do prompt engineeringu oraz narzędziami do manipulacji danymi (np. Pandas)
Praktyczne doświadczenie w implementacji co najmniej jednego procesu fine-tuningu lub RAG (Retrieval-Augmented Generation)
Znajomość narzędzi i metryk do ewaluacji promptów (np. BLEU, ROUGE, semantyczne podobieństwo) oraz pracy w modelu human-in-the-loop
Zrozumienie zagadnień bezpieczeństwa związanych z LLM (prompt injection, filtrowanie wyjść, ograniczenia API, strukturyzacja wyników)
Umiejętność przekładania złożonych wymagań dokumentacyjnych na logikę promptów
Analityczne podejście, dbałość o szczegóły zarówno na poziomie koncepcji, jak i spójności wyników