Senior Data Engineer

Data

Senior Data Engineer

Data
Centrum, Warszawa

SCALO

Full-time
B2B
Senior
Hybrid
6 524.40 - 7 456.46 USD
Net per month - B2B

Job description

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.

Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!

W Scalo czeka na Ciebie:

  • udział w budowie i rozwoju rozwiązań klasy Data Lake oraz Data Warehouse,

  • projektowanie oraz realizacja rozwiązań informatycznych w obszarze zasilania i przetwarzania danych,

  • analiza danych oraz przygotowywanie modeli logicznych i fizycznych,

  • tworzenie przepływów danych off-line i on-line z wykorzystaniem narzędzi on-premise oraz usług chmurowych Google Cloud Platform,

  • rozwój rozwiązań do ładowania danych w Pythonie oraz Rust dla danych strukturalnych i niestrukturalnych,

  • przygotowywanie tematycznych datamartów na bazach relacyjnych i kolumnowych,

  • opracowywanie koncepcji oraz implementacja rozwiązań w oparciu o wymagania i potrzeby biznesowe,

  • udział w usuwaniu incydentów oraz rozwiązywaniu problemów technicznych,

  • wsparcie testów oraz wdrożeń zmian w obszarze procesów zasilania danych,

  • praca w modelu hybrydowym: 1 raz w tygodniu praca z biura w Warszawie, 

  • stawka do 160 zł/h przy B2B w zależności od doświadczenia.  

Ta oferta jest dla Ciebie, jeśli:

  • posiadasz praktyczne doświadczenie w pracy z Neo4j,

  • dobrze znasz koncepcje teorii grafów oraz zasady ich wykorzystania w systemach IT,

  • masz doświadczenie w modelowaniu grafów i optymalizacji wydajności,

  • pracujesz w środowisku chmurowym GCP,

  • znasz zagadnienia związane z budową pipeline’ów ETL/ELT,

  • masz doświadczenie z technologiami event-driven, takimi jak Kafka lub Pub/Sub,

  • rozumiesz aspekty budowy rozwiązań Big Data z wykorzystaniem GenAI,

  • znasz Google BigQuery,

  • programujesz w Pythonie,

  • masz doświadczenie w pracy z narzędziami CI/CD,

  • mile widziana znajomość:  Apache Spark (preferowane GCP Dataproc), Apache Beam (preferowane GCP Dataflow), Airflow, Rust.

Co dla Ciebie mamy?

  • Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), 

  • możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych,

  • przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet),

  • prywatną opiekę medyczną - Luxmed,

  • kafeteryjny system benefitów - Motivizer, 

  • dostęp do karty Multisport, 

  • program poleceń pracowniczych z nagrodami,

  • integracje i wydarzenia firmowe.

Tech stack

    ETL

    advanced

    GCP

    advanced

    Python

    advanced

    Apache Spark

    advanced

Office location