Cloud Data Architect (GCP)

46.67 - 69.30 USDNet per hour - B2B
Data

Cloud Data Architect (GCP)

Data
Bojkowska 37a, Gliwice

Future Processing

Full-time
B2B
Senior
Remote
46.67 - 69.30 USD
Net per hour - B2B

Job description

Szukamy Ciebie, jeśli:

  • posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi) oraz doświadczenie w roli Lead Developera / Architekta lub pokrewnej,

  • masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI),

  • biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git,

  • potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake),

  • architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP

  • masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow)

  • korzystasz z SQL i Pythona na poziomie zaawansowanym,

  • potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming,

  • masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów) oraz w implementacji dobrych praktyk monitoringu (Cloud Monitoring, Logging),

  • monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność, a planowanie i optymalizacja kosztów (FinOps, GCP Pricing Calculator, BigQuery Reservations) nie stanowią wyzwania,

  • posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect),

  • wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS),

  • brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne,

  • cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność,

  • masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju,

  • prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek,

  • jesteś otwarty(a) na wyjazdy służbowe,

  • posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1).


Praca na tym stanowisku w naszej firmie oznacza:

  • konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego,

  • udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań,

  • tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora,

  • estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions,

  • budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami,

  • udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu,

  • R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej,

  • tworzenie Proof-of-Concept dla nowych koncepcji danych,

  • utrzymywanie relacji z technicznym zespołem klienta i koordynację pracy inżynierów zaangażowanych w projekt,

  • aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring).

  • odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem,

  • tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer),

  • tworzenie i modyfikowanie dokumentacji,

  • budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance,

  • analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych,

  • analizowanie potencjalnych zagrożeń,

  • monitoring, diagnostykę i FinOps-owe optymalizacje kosztów chmury.


Wynagrodzenie:

  • 165 – 240 zł/h netto + VAT (B2B)

  • 19,700 – 29,300 zł brutto (UoP)

Tech stack

    Polish

    C1

    English

    C1

    Python

    master

    SQL

    master

    BigQuery

    master

    GCP

    master

    Terraform

    advanced

Office location

Published: 10.02.2026

About the company

Future Processing

Jesteśmy polską firmą technologiczną, która tworzy oprogramowanie i doradza w zakresie technologii. Łączymy kompetencje ekspertów z wielu dziedzin: od consultingu i projektowania produktów cyfrowych, po rozwój oprogramow...

Company profile

Cloud Data Architect (GCP)

46.67 - 69.30 USDNet per hour - B2B
Summary of the offer

Cloud Data Architect (GCP)

Bojkowska 37a, Gliwice
Future Processing
46.67 - 69.30 USDNet per hour - B2B
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. Informujemy, że administratorem danych jest Future Processing z siedzibą w Gliwicach, ul.Bojkowska 37A (dalej jako "administrator"). M... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.