W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość. Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.
Aktualnie poszukujemy kandydatów na stanowisko:
Dla kogo: Dołączysz do zespołu technologicznego, który odpowiada za rozwój i utrzymanie skalowalnych procesów przetwarzania danych. Pracujesz w środowisku opartym na chmurze (AWS), gdzie dane są kluczowym elementem napędzającym innowacje w produktach i usługach.
Forma współpracy: B2B
Wymiar: Full-time, długofalowa współpraca
Stawka: 110–130 zł/h netto (FV) – zależnie od doświadczenia
Tryb pracy: Zdalnie – 100% remote
Zespół: Będziesz współpracować z inżynierami danych, programistami oraz ekspertami językowymi w środowisku Agile. Decyzyjność, samodzielność i jakość są tutaj kluczowe.
Co będziesz robić?
- Projektować i rozwijać zautomatyzowane procesy przetwarzania danych (ETL/ELT) z wykorzystaniem Pythona i usług AWS (m.in. Glue, Lambda, S3)
- Zbierać i przekształcać dane z różnych źródeł (strukturalnych i niestrukturalnych), tworząc spójne modele danych
- Monitorować, optymalizować i automatyzować przepływy danych z myślą o ich wydajności i kosztach
- Dbać o jakość danych – poprzez testy, walidację i audyty danych
- Projektować struktury danych i wspierać budowę nowoczesnych baz danych oraz warstw raportowych
- Tworzyć dokumentację techniczną i wspierać innych członków zespołu wiedzą techniczną
- Brać udział w przeglądach kodu, dzielić się dobrymi praktykami i dbać o techniczny rozwój zespołu
- Wspierać zespół w obszarze infrastruktury jako kod (IaC) – Terraform, CloudFormation lub CDK
Must-have:
- Bardzo dobra znajomość Pythona – szczególnie w kontekście przetwarzania danych (Pandas, NumPy itp.)
- Doświadczenie w pracy z chmurą AWS – zwłaszcza z usługami: S3, Glue, Lambda, RDS
- Dobra znajomość SQL i umiejętność pracy z bazami danych
- Rozumienie architektury i cyklu życia pipeline'ów danych
- Znajomość systemów kontroli wersji (Git)
- Samodzielność, analityczne podejście i nastawienie na rozwiązywanie problemów
- Umiejętność pracy zespołowej i komunikacji w języku angielskim (min. C1)
- Gotowość do pracy zdalnej z terytorium Polski (wymagana legalna możliwość pracy na terenie RP)
- Nice-to-have:
- Znajomość narzędzi do orkiestracji zadań (np. Apache Airflow)
- Doświadczenie z Redshift lub innymi hurtowniami danych
- Wiedza z zakresu bezpieczeństwa danych i zgodności z regulacjami (np. GDPR)
- Znajomość konteneryzacji (Docker, Kubernetes)
- Doświadczenie z narzędziami typu Infrastructure as Code (Terraform, CDK, CloudFormation)
- Udział w rozwoju nowoczesnych produktów opartych na danych – w środowisku, gdzie jakość i autonomia mają znaczenie
- Stabilny kontrakt i przejrzyste warunki współpracy
- W pełni zdalną współpracę i elastyczne godziny pracy
- Możliwość pracy z doświadczonym zespołem, w którym priorytetem są jakość kodu i wymiana wiedzy
- Dostęp do benefitów: prywatna opieka medyczna, karta sportowa, ubezpieczenie grupowe (w modelu dofinansowania)