GCP Data Engineer (Consultant)

44 - 50 USDNet per hour - B2B
Data

GCP Data Engineer (Consultant)

Data
Centrum, Warszawa +4 Locations

GS Services

Full-time
B2B
Senior
Remote
44 - 50 USD
Net per hour - B2B

Job description

Poszukujemy superbohatera – GCP Data Engineera! 🦸‍♀️🦸‍♂️

Zlecono nam misję specjalną, dzięki której możesz stać się bohaterem naszego klienta. Poniżej znajdziesz informacje na temat oferty oraz supermoce, które będą Ci potrzebne do stawienia czoła wyzwaniom. Nie ma na co czekać, misja sama się nie zrobi – aplikuj na ofertę!

💵 Stawka: do 180 pln netto/h + VAT

Czas trwania: umowa do końca roku z możliwością przedłużenia

🤝 Model współpracy: B2B, pełny etat

🌍 Tryb pracy: 100% zdalnie

Start: ASAP

🗣 Język: Angielski – poziom zaawansowany

Twoja misja:

Projekt koncentruje się na kompleksowej migracji oraz rozbudowie istniejącej platformy danych do środowiska chmurowego opartego na Google Cloud Platform. W projekcie wykorzystano również rozwiązania z obszaru AI/ML do wspierania procesów.

Wymagane supermoce:

  • Min. 4 lata doświadczenia na stanowisku inżyniera danych, w tym co najmniej 3 lata pracy z infrastrukturą i systemami chmurowymi GCP.

  • Dogłębna znajomość platform chmurowych – Google Cloud – Kandydat powinien umieć projektować, tworzyć i wdrażać pipeline danych w chmurze w celu pozyskiwania danych z różnych źródeł, takich jak bazy danych, interfejsy API czy platformy strumieniowe.

  • Znajomość programowania (SQL, Python, inne języki skryptowe).

  • Biegłość w technikach modelowania danych i optymalizacji baz danych. Znajomość optymalizacji zapytań, indeksowania i dostrajania wydajności niezbędna do efektywnego pobierania i przetwarzania danych.

  • Biegłość w obsłudze systemów zarządzania bazami danych, takich jak SQL (wymagana znajomość Big Query) i NoSQL. Kandydat powinien umieć projektować, konfigurować i zarządzać bazami danych w celu zapewnienia optymalnej wydajności i niezawodności.

  • Znajomość co najmniej jednego narzędzia do orkiestracji i planowania (np. Airflow).

  • Doświadczenie w zakresie narzędzi i technik integracji danych, takich jak ETL i ELT. Kandydat powinien umieć integrować dane z wielu źródeł i przekształcać je do formatu odpowiedniego do analizy.

  • Znajomość nowoczesnych narzędzi do transformacji danych (takich jak DBT, Dataform).

  • Umiejętność jasnego i zwięzłego przekazywania koncepcji technicznych interesariuszom nieposiadającym wiedzy technicznej.

  • Znajomość narzędzi: Git, Jira, Confluence itp.

  • Otwartość na naukę nowych technologii i rozwiązań.

  • Doświadczenie w środowisku międzynarodowym i w pracy w zespołach rozproszonych.

Mile widziane:

  • Certyfikaty w zakresie technologii big data i/lub platform chmurowych.

  • Doświadczenie w pracy z rozwiązaniami BI (np. Power BI, Tableau).

  • Doświadczenie w pracy z narzędziami ETL, np. Talend, Alteryx.

  • Doświadczenie w pracy z infrastrukturą i systemami opartymi na chmurze Azure.

Aplikuj na ofertę, wierzymy w Ciebie i w Twoje supermoce! 🐱‍💻

Tech stack

    English

    B2

    Python

    advanced

    SQL

    advanced

    Google Cloud

    advanced

    BigQuery

    advanced

    GCP

    advanced

    DBT

    advanced

    ETL

    advanced

    NoSQL

    regular

    ETL tools

    regular

    Azure

    nice to have

Office location

GCP Data Engineer (Consultant)

44 - 50 USDNet per hour - B2B
Summary of the offer

GCP Data Engineer (Consultant)

Centrum, Warszawa
GS Services
44 - 50 USDNet per hour - B2B
By applying, I consent to the processing of my personal data for the purpose of conducting the recruitment process. Informacje o przetwarzaniu danych osobowych Dziękujemy za chęć wzięcia udziału w procesie rekrutacyjnym prowadzonym przez GS Services ... MoreThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.