Data Engineer (Snowflake / Terraform / Airflow)

41 - 47 USDNet per hour - B2B
Data

Data Engineer (Snowflake / Terraform / Airflow)

Data
Full-time
B2B
Mid
Remote
41 - 47 USDNet per hour - B2B

Job description

Nasz Klient to międzynarodowa firma z branży telekomunikacyjnej z siedzibą w Belgii, realizująca nowoczesne projekty związane z transformacją i rozwojem platform danych w środowisku cloudowym.

☁️ Projekt koncentruje się na rozwoju i utrzymaniu nowoczesnej architektury Data Engineering, obejmującej migracje legacy DWH, budowę pipeline’ów danych oraz automatyzację infrastruktury i procesów deploymentowych.

🔎 Szukamy doświadczonej osoby na stanowisko Data Engineer, która dobrze odnajduje się w środowiskach cloudowych, posiada mocne kompetencje w obszarze Snowflake, Terraform oraz Airflow i potrafi samodzielnie prowadzić zadania w złożonym środowisku enterprise.

📍 TRYB PRACY: 100% zdalnie

⏱️ DOSTĘPNOŚĆ: Poszukujemy osób dostępnych ASAP lub z maksymalnie 30-dniowym okresem wypowiedzenia.

🧑‍💻 CZYM BĘDZIESZ SIĘ ZAJMOWAĆ?

  • Projektowaniem, rozwijaniem i utrzymywaniem skalowalnych pipeline’ów danych w nowoczesnym środowisku cloudowym.

  • Budową oraz optymalizacją rozwiązań opartych o Snowflake, ze szczególnym uwzględnieniem wydajności, bezpieczeństwa, zarządzania rolami i architektury warehouse’ów.

  • Automatyzacją infrastruktury przy wykorzystaniu Terraform (Infrastructure as Code) oraz rozwijaniem procesów deploymentowych i integracyjnych.

  • Projektowaniem oraz utrzymywaniem workflowów danych z wykorzystaniem Apache Airflow i warstw orkiestracji.

  • Udziałem w migracjach z legacy DWH / Teradata do nowoczesnych platform danych.

  • Współpracą z międzynarodowym zespołem pracującym w metodologiach Agile (Scrum / Kanban).

🔍 CZEGO OD CIEBIE OCZEKUJEMY?

  • ✅ Must-have:
    Minimum 5 lat doświadczenia w obszarze Data Engineering.

  • Bardzo dobrej znajomości Snowflake – w szczególności SQL, performance tuning, warehouses, roles oraz security.

  • Praktycznego doświadczenia z Terraform i podejściem IaC (Infrastructure as Code).

  • Doświadczenia w budowie end-to-end pipeline’ów danych wraz z warstwami CI/CD i orkiestracji.

  • Bardzo dobrej znajomości Apache Airflow oraz projektowania workflowów danych w środowiskach cloudowych.

  • Doświadczenia w migracjach Teradata lub legacy DWH.

  • Samodzielności, odpowiedzialności oraz umiejętności pracy w dynamicznym środowisku projektowym.

  • Języka angielskiego na poziomie minimum B2.

🤝 DLACZEGO WARTO?

  • 100% zdalny model pracy i współpraca z międzynarodowym zespołem.

  • Szybki proces rekrutacyjny – 1–2 etapy.

  • Możliwość pracy przy nowoczesnym stacku Data & Cloud.

  • Duża samodzielność oraz realny wpływ na rozwiązania techniczne.

  • Projekt realizowany dla stabilnego klienta z branży telekomunikacyjnej.

📩 Dziękujemy za wszystkie zgłoszenia! Skontaktujemy się z wybranymi osobami.

TQLO Sp. z o.o. – nr KRAZ: 33580

Tech stack

    Polish

    C1

    English

    B2

    SQL

    advanced

    Snowflake

    advanced

    Terraform

    advanced

    CI/CD

    regular

    Airflow

    regular

Office location

About the company

TQLO SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ

TQLO to dynamicznie rozwijająca się firma specjalizująca się w rekrutacji IT oraz outsourcingu usług technologicznych. Działa na polskim rynku, dostarczając lokalnie wykwalifikowanych inżynierów, którzy pomagają klientom...
Company profile

Data Engineer (Snowflake / Terraform / Airflow)

41 - 47 USDNet per hour - B2B
Summary of the offer

Data Engineer (Snowflake / Terraform / Airflow)

Skierniewicka 10A, Warszawa
TQLO SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
41 - 47 USDNet per hour - B2B
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. By applying, you acknowledge that your personal data will be processed by TQLO sp. z o.o. with its registered office in Warsaw (herein... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.