Data Engineer Middle

4 777.05 - 6 182.07 USDNet per month - B2B
Data

Data Engineer Middle

Data
centrum, Warszawa

SCALO

Full-time
B2B
Mid
Hybrid
4 777.05 - 6 182.07 USD
Net per month - B2B

Job description

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.

Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!

MIW Scalo czeka na Ciebie:

• udział w projekcie z obszaru integracji oraz przetwarzania danych w środowiskach chmurowych i on‑prem,
• realizacja zadań związanych z budową i rozwojem procesów integracyjnych w GCP oraz on‑prem,
• praca z narzędziami ETL w środowisku GCP: Apache AirFlow, DataFlow, DataProc,
• wykorzystanie baz danych GCP: BigQuery, BigTable oraz Scylla Cloud,
• praca z kolejkami danych: Kafka, GCP Pub/Sub,
• projektowanie, budowa i tuning baz danych w środowiskach on‑prem (Oracle, PostgreSQL, ScyllaDB),
• korzystanie z narzędzi ETL na on‑prem na poziomie zaawansowanym: Informatica Power Center, NIFI,
• praca z narzędziem harmonogramującym Automate Now (Infinity Data),
• tworzenie i wystawianie usług REST API,
• rozwój narzędzi i frameworków w Pythonie oraz PySpark,
• tworzenie narzędzi wspomagających wydajne ładowanie danych w języku Rust,
• odpowiedzialność za obszar wystawiania danych pod usługi działające w wysokim reżimie wydajnościowym (24h),
• praca w środowisku dużych wolumenów danych (~100 TB),
• praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie,
• stawka do 135 PLN/h w oparciu o współpracę B2B.

Ta oferta jest dla Ciebie, jeśli:

• masz co najmniej 4 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych,
• znasz dobrze narzędzia ETL na GCP (Apache AirFlow, DataFlow, DataProc),
• biegle posługujesz się bazami danych GCP (BigQuery, BigTable, Scylla Cloud) i potrafisz je projektować oraz optymalizować,
• potrafisz pracować z kolejkami danych: Kafka, GCP Pub/Sub,
• masz co najmniej 3 lata doświadczenia jako Developer ETL w środowiskach on‑prem,
• biegle korzystasz z narzędzi ETL on‑prem: Informatica Power Center i NIFI,
• masz ekspercką znajomość baz Oracle, PostgreSQL oraz ScyllaDB,
• bardzo dobrze znasz narzędzie harmonogramujące Automate Now,
• potrafisz wystawiać usługi REST API,
• masz co najmniej 4 lata doświadczenia jako programista Python (data integration & analysis) oraz PySpark,
• dobrze znasz język Rust w kontekście tworzenia narzędzi do wydajnego ładowania danych,
• potrafisz przejąć odpowiedzialność za obszary wymagające wysokiej dostępności i wydajności,
• masz podstawową wiedzę w zakresie programowania mikroserwisów w Javie,
• mile widziana jest znajomość Groovy,
• dobrze czujesz się w systemach Linux na poziomie zaawansowanego użytkownika,
• masz doświadczenie w pracy z dużymi wolumenami danych (~100 TB),
• posiadasz rozwinięte umiejętności analityczne i szybko przyswajasz wiedzę,
• działasz samodzielnie, kreatywnie i terminowo,
• mile widziana jest znajomość GIT, Grafany i Apache JMeter.

Co dla Ciebie mamy?

  • Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), 
  • możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych,
  • przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet),
  • prywatną opiekę medyczną - Luxmed,
  • kafeteryjny system benefitów - Motivizer, 
  • dostęp do karty Multisport, 
  • program poleceń pracowniczych z nagrodami,
  • integracje i wydarzenia firmowe.

Stos technologiczny - wpisz 3 lub 4 główne technologie oddzielając je przecinkiem np: Java, AWS, Spring, Hibernate

Python, Rust, GCP

Doświadczenie - wpisz Junior lub Regular lub Senior lub Expert

Regular

Wynagrodzenie - wpisz górną granicę widełek np. do 150 PLN/h (B2B)

do 135 PLN/h (B2B)

Tryb pracy - wpisz: Zdalna lub Hybrydowa lub Stacjonarna

hybrydowy

Zobacz jak do nas dołączyć:

Tech stack

    Python

    regular

    Rust

    regular

    GCP

    regular

    PostgreSQL

    regular

    Oracle

    regular

    REST API

    regular

Office location

Published: 17.02.2026

Data Engineer Middle

4 777.05 - 6 182.07 USDNet per month - B2B
Summary of the offer

Data Engineer Middle

centrum, Warszawa
SCALO
4 777.05 - 6 182.07 USDNet per month - B2B
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. Informujemy, że administratorem danych jest Scalo Sp. z o.o. z siedzibą we Wrocławiu, ul. Powstańców Śląskich 9, 53- 332 Wrocław (dale... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.