Cześć!
Z tej strony Neontri - jesteśmy firmą liczącą ponad 120 osób. Specjalizujemy się w dwóch obszarach:
-tworzymy systemy, które zlecają nam nasi Klienci (najczęściej tworzymy coś od zera, albo dodajemy w pełni nowe funkcjonalności) głównie z obszaru: finansowego, bankowego, fin-tech, e-commerce - choć nie tylko :)
-wspieramy naszych Klientów w rekrutacji Specjalistów, a naszym Kandydatom staramy się dobrać jak najlepiej dopasowane oferty (tzw. bodyleasing)
Co może nas wyróżniać spośród innych firm i dlaczego warto rozpocząć z nami współpracę?
- Posiadamy bogate doświadczenie w realizacji dużych, złożonych projektów. Miliony użytkowników codziennie korzystają z aplikacji, które współtworzymy.
- Większość projektów jest prowadzona długoterminowo i w sposób zdalny. Dbamy o nasze relacje i możliwość cyklicznych spotkań na integracjach, czy spotkaniach tematycznych (m.in. wieczorki meksykańskie). Staramy się także angażować w akcje charytatywne.
- W codziennej pracy stawiamy nacisk na szczerość, zaufanie, współpracę i dobre relacje. Pracujemy w mniejszych zespołach ze zróżnicowanym seniority.
Informacje o projekcie:
Obecnie dla naszego Klienta z branży bankowej poszukujemy Architekta Systemowego.
Projekt: Projekt dotyczy projektowania i rozwoju architektury danych w środowisku Big Data w bankuCzas trwania projektu: długoterminowyStack Technologiczny: Python, Rust, Google BigQuery, Kubernetes, Oracle, PostgreSQL, Data Lake / Data Warehouse, GenAI, ETL / ELT.Tryb pracy: hybryda z Warszawy (elastyczna ilość dni z biura)Wynagrodzenie: 160 - 195 PLN/h + VATModel współpracy: kontrakt z Neontri (outsourcing)
Proces rekrutacyjny:
Składa się z 2 etapów:
- Krótka (około 20 minutowa) rozmowa telefoniczna z naszym działem HR,
- Online Tech talk z Klientem (około 1 godziny). Podczas rozmowy pojawią się pytania o doświadczenie oraz sprawdzające wiedzę techniczną.
Aplikuj, jeśli posiadasz:
- Doświadczenie w projektowaniu i budowie pipeline’ów danych ETL/ELT oraz pracy z rozwiązaniami Data Lake i Data Warehouse,
- Znajomość architektur event-driven oraz technologii takich jak Kafka lub Pub/Sub,
- Doświadczenie w pracy z Google BigQuery oraz środowiskami Big Data,
- Praktyczną znajomość Python lub Rust oraz narzędzi orkiestracji danych, np. Apache Airflow,
- Doświadczenie w pracy z Kubernetes (np. GKE lub OpenShift) oraz relacyjnymi bazami danych Oracle lub PostgreSQL,
- Znajomość zagadnień związanych z budową rozwiązań Big Data i wykorzystaniem GenAI w przetwarzaniu danych.
Co możemy Ci zaproponować?
- Kontrakt B2B,
- W pełni finansowaną przez nas opiekę medyczną LUX MED,
- Budżet szkoleniowy,
- Nie robimy nadgodzin! Balans jest najważniejszy.
Chcesz poznać więcej szczegółów? Aplikuj 😊
Do usłyszenia!