#1 Job Board for tech industry in Europe

Big Data Engineer
Data

Big Data Engineer

Warszawa
Type of work
Full-time
Experience
Senior
Employment Type
B2B
Operating mode
Remote

Tech stack

    DWH

    advanced

    ETL

    advanced

    Azure Synapse

    advanced

    Azure

    advanced

    Azure Datalake

    advanced

    Azure Data Factory

    advanced

    Agile

    advanced

    SQL

    advanced

Job description

Online interview

Firma: jest kompleksowym partnerem w zakresie usług związanych z danymi. Zatrudnia ponad tysiąc ekspertów m.in. z dziedziny analizy danych, BI, big data, data science & AI oraz digital commerce. Są wielokrotnie nagradzani za wybitne innowacje i rozwiązania technologiczne. 


Poszukujemy doświadczonego specjalisty ,Cloud Data Engineera z Azure, który będzie odpowiedzialny za projektowanie i wdrażanie potoków danych oraz workflow ETL przy użyciu usług Azure lub AWS. Osoba na tym stanowisku będzie również rozwijać i utrzymywać rozwiązania magazynowania danych w chmurze Azure lub AWS. Projekty głownie dla klientów z Europy zachodniej. 


Rozpoczęcie pracy: styczeń/luty 2024, współpraca długoterminowa


Godziny pracy: czas rozpoczęcia pracy 7-10, można pracować w pełni zdalnie lub z biura (Warszawa)


Stack to chmura (90% Azure, może być AWS), SQL


Proces rekrutacji (w języku polskim i angielskim)

- rozmowa HR ok 30 minut

- test na platformie codility ok 40 minut

- rozmowa techniczno managerska ok godzina


WYMAGANIA:

Doświadczenie w Inżynierii Danych ze szczególnym uwzględnieniem rozwoju potoków danych, transformacji danych i integracji danych.

Doświadczenie w Platformach Chmurowych: biegła znajomość platformy Microsoft Azure. Dobre zrozumienie różnych usług Azure, takich jak Azure Data Factory, Azure Databricks, Azure SQL Data Warehouse i Azure Data Lake Storage.

ETL i Transformacja Danych: doświadczenie w procesach ETL (Extract, Transform, Load) oraz technikach transformacji danych. Znajomość narzędzi i frameworków do ETL.

Znajomość relacyjnych baz danych (np. SQL Server, PostgreSQL) oraz baz NoSQL.

Technologie Big Data: doświadczenie z technologiami i frameworkami big data, takimi jak Hadoop, Spark i Hive.

Zrozumienie koncepcji magazynowania danych oraz doświadczenie z platformami magazynowania danych (np. Azure SQL Data Warehouse, Amazon Redshift).

Biegła znajomość modelowania danych, projektowania schematów oraz architektury danych.

Znajomość systemów kontroli wersji (np. Git) i zarządzania repozytoriami kodu.

Komunikatywna znajomość języka angielskiego.


OBOWIĄZKI:

Projektowanie i implementacja potoków danych oraz workflow ETL przy użyciu usług chmurowych, takich jak Azure i AWS.

Tworzenie i utrzymywanie rozwiązań magazynowania danych na platformach Azure i AWS.

Współpraca z zespołami między działowymi w celu zrozumienia wymagań biznesowych i przekładania ich na rozwiązania techniczne.

Budowanie i utrzymywanie efektywnych, skalowalnych i niezawodnych architektur danych do celów analizy i raportowania.

Współpraca z zespołem analitycznym.

Wdrożenie kontroli jakości danych i procesów walidacji danych w celu zapewnienia dokładności i spójności danych.

Utrzymywanie i aktualizacja dokumentacji danych.

Rozwiązywanie problemów związanych z danymi.


MILE WIDZIANE:

Programowanie w Python

Certyfikaty związane z Microsoft Azure, AWS.



OFERUJEMY:

Pakiet sportowy

Prywatna opieka medyczna

Platforma edukacyjna Udemy

Programy szkoleniowe z certyfikatami

Wsparcie w zakresie podnoszenia kwalifikacji. Programy rozwoju umiejętności, centra kompetencji, sesje wymiany wiedzy, webinaria społecznościowe, ponad 100 szkoleń rocznie.