Cloud Data Architect (GCP)

45 - 67 USDNet per hour - B2B
Data

Cloud Data Architect (GCP)

Data
Bojkowska 37a, Gliwice

Future Processing

Full-time
B2B
Senior
Remote
45 - 67 USD
Net per hour - B2B

Job description

Szukamy Ciebie, jeśli:

  • posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi) oraz doświadczenie w roli Lead Developera / Architekta lub pokrewnej,

  • masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI),

  • biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git,

  • potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake),

  • architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP

  • masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow)

  • korzystasz z SQL i Pythona na poziomie zaawansowanym,

  • potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming,

  • masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów) oraz w implementacji dobrych praktyk monitoringu (Cloud Monitoring, Logging),

  • monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność, a planowanie i optymalizacja kosztów (FinOps, GCP Pricing Calculator, BigQuery Reservations) nie stanowią wyzwania,

  • posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect),

  • wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS),

  • brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne,

  • cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność,

  • masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju,

  • prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek,

  • jesteś otwarty(a) na wyjazdy służbowe,

  • posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1).

Praca na tym stanowisku w naszej firmie oznacza:

  • konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego,

  • udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań,

  • tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora,

  • estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions,

  • budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami,

  • udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu,

  • R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej,

  • tworzenie Proof-of-Concept dla nowych koncepcji danych,

  • utrzymywanie relacji z technicznym zespołem klienta i koordynację pracy inżynierów zaangażowanych w projekt,

  • aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring).

  • odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem,

  • tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer),

  • tworzenie i modyfikowanie dokumentacji,

  • budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance,

  • analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych,

  • analizowanie potencjalnych zagrożeń,

  • monitoring, diagnostykę i FinOps-owe optymalizacje kosztów chmury.

Wynagrodzenie:

  • 165 – 240 zł/h netto + VAT (B2B)

  • 19,700 – 29,300 zł brutto (UoP)

Tech stack

    Polish

    C1

    English

    C1

    GCP

    master

    BigQuery

    master

    SQL

    master

    Python

    master

    Terraform

    advanced

Office location

About the company

Future Processing

Jesteśmy polską firmą technologiczną, która tworzy oprogramowanie i doradza w zakresie technologii. Łączymy kompetencje ekspertów z wielu dziedzin: od consultingu i projektowania produktów cyfrowych, po rozwój oprogramow...

Company profile

Cloud Data Architect (GCP)

45 - 67 USDNet per hour - B2B
Summary of the offer

Cloud Data Architect (GCP)

Bojkowska 37a, Gliwice
Future Processing
45 - 67 USDNet per hour - B2B
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. Informujemy, że administratorem danych jest Future Processing z siedzibą w Gliwicach, ul.Bojkowska 37A (dalej jako "administrator"). M... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.