Senior Big Data DevOps Engineer (GCP / Apache Beam)

6 923 - 8 308 USDNet per month - B2B
DevOps

Senior Big Data DevOps Engineer (GCP / Apache Beam)

DevOps

Złota, Warszawa

DoubleData

Full-time
B2B
Senior
Remote
6 923 - 8 308 USD
Net per month - B2B

Tech stack

    Polish

    C1

    English

    C1

    DevOps

    advanced

    Google Cloud Platform

    advanced

    BigQuery

    advanced

    Docker

    advanced

    Kubernetes

    advanced

    Big Data

    advanced

    Terraform

    regular

    Python

    junior

    Java

    junior

Job description

O roli:

W DoubleData specjalizujemy się w zaawansowanych rozwiązaniach do pozyskiwania i przetwarzania danych na dużą skalę. W związku z dynamicznym rozwojem i rosnącym wolumenem informacji, podejmujemy strategiczną inicjatywę budowy naszej platformy danych nowej generacji w oparciu o chmurę Google Cloud Platform.


Poszukujemy doświadczonego Senior Big Data DevOps Engineera, który obejmie kluczową rolę w tym projekcie. Będziesz odpowiedzialny(a) za zaprojektowanie i wdrożenie wysoce skalowalnego, serwerlessowego ekosystemu do przetwarzania danych, wykorzystując najnowocześniejsze technologie, takie jak Apache Beam i Google BigQuery. To wyjątkowa okazja, aby od podstaw tworzyć architekturę, która stanie się fundamentem naszych przyszłych operacji analitycznych i produktowych. Przewidywany czas trwania projektu to ok. 6 miesięcy.



Główne zadania:

  • Projektowanie, budowanie i utrzymanie wysoce wydajnych i skalowalnych pipeline'ów danych z wykorzystaniem Apache Beam i Google Cloud Dataflow.

  • Architektura i zarządzanie naszymi rozwiązaniami hurtowni danych w Google BigQuery, z naciskiem na optymalizację wydajności, skalowalności i kosztów.

  • Wykorzystanie zasad Infrastructure as Code (IaC) przy użyciu Terraform do pełnej automatyzacji provisioningu i zarządzania infrastrukturą chmurową.

  • Tworzenie i optymalizacja procesów CI/CD (np. z użyciem GitHub Actions) w celu zapewnienia ciągłości dostarczania infrastruktury i aplikacji danych.

  • Implementacja solidnych mechanizmów monitoringu, logowania i obsługi błędów w celu zapewnienia niezawodności i wysokiej jakości danych w całym systemie.

  • Ścisła współpraca z zespołami deweloperskimi w celu stworzenia płynnego, kompleksowego cyklu życia danych – od pozyskania aż po zaawansowaną analitykę.


Czego oczekujemy (Wymagania):

  • Minimum 5 lat doświadczenia komercyjnego na stanowisku DevOps Engineer, Data Engineer lub pokrewnym.

  • Ekspercka wiedza i praktyczne doświadczenie w pracy z Google Cloud Platform (GCP).

  • Głębokie, komercyjne doświadczenie w budowaniu pipeline'ów danych z użyciem Apache Beam (preferowana Java) i ich uruchamianiu na Google Cloud Dataflow.

  • Biegła znajomość Google BigQuery z perspektywy architekta danych – wiesz, jak efektywnie strukturyzować dane, optymalizować zapytania i zarządzać kosztami.

  • Doświadczenie z technologiami do przetwarzania strumieniowego, takimi jak Google Pub/Sub lub Kafka.

  • Biegłość w automatyzacji infrastruktury jako kodu przy użyciu Terraform.

  • Umiejętność strategicznego myślenia i samodzielnego rozwiązywania złożonych problemów architektonicznych.

  • Znajomość narzędzi do konteneryzacji (Docker, Kubernetes).


Mile widziane:

  • Doświadczenie w obszarze web scrapingu lub przetwarzania dużych wolumenów danych z heterogenicznych źródeł.

  • Doświadczenie w migracji systemów z relacyjnych baz danych do chmurowych hurtowni danych.

  • Bardzo dobra znajomość języka Python i/lub Java.


Co oferujemy?

  • Strategiczny Projekt: Obejmij kluczową rolę w jednym z najważniejszych projektów technologicznych w firmie, z dużą autonomią w podejmowaniu decyzji architektonicznych.

  • Nowoczesny Tech Stack: Pracuj z czołowymi technologiami Big Data (Apache Beam, BigQuery, Dataflow) w nowoczesnym, serwerlessowym podejściu.

  • Praca Zdalna: Oferujemy 100% pracy zdalnej i elastyczne godziny.

  • Realny Wpływ: Twoja praca bezpośrednio przyczyni się do zwiększenia możliwości technologicznych firmy i odblokowania jej potencjału analitycznego.

  • Sprzęt: Zapewniamy MacBooka Pro lub inny, wybrany przez Ciebie sprzęt najwyższej klasy.

  • Świetny Zespół: Dołącz do zgranego, technicznego zespołu, który ceni otwartą komunikację i pragmatyczne podejście do rozwiązywania problemów.


Jeśli chcesz budować skalowalne systemy danych od podstaw i masz pasję do nowoczesnych technologii, dołącz do nas i poprowadź rewolucję danych w DoubleData!

Published: 16.09.2025
Office location

Senior Big Data DevOps Engineer (GCP / Apache Beam)

6 923 - 8 308 USDNet per month - B2B
Apply

Senior Big Data DevOps Engineer (GCP / Apache Beam)

Złota, Warszawa

DoubleData

6 923 - 8 308 USDNet per month - B2B
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. Please be informed that the data controller is BillTech Group sp. z o.o. (hereinafter "controller"). You have the right to request acc... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
ADVERTISEMENT: Recommended by Just Join IT