All offersWarszawaDataData Engineer
Data Engineer
new
Data
Simplicity Recruitment

Data Engineer

Simplicity Recruitment
Warszawa
Type of work
Full-time
Experience
Senior
Employment Type
Permanent
Operating mode
Hybrid

Tech stack

    Databases
    master
    Python
    advanced
    PostgreSQL
    advanced
    MySQL
    advanced
    Amazon AWS
    advanced
    Azure
    advanced
    MongoDB
    regular
    Scala
    nice to have
    Java
    nice to have
    Oracle
    nice to have

Job description

Online interview

Dla naszego klienta - globalnej organizacji - poszukujemy osoby na stanowisko Data Engineer. 


Zakres obowiązków:

  • Opracowywanie i wdrażanie strategii danych oraz poszczególnych komponentów, zapewniając ich zgodność z ogólnymi celami biznesowymi firmy.
  • Odpowiedzialność za optymalizację i rozwój infrastruktury danych, zarówno pod względem funkcjonalnym, jak i analitycznym, w celu wspierania efektywnego przetwarzania i analizy danych.
  • Opracowywanie i wdrażanie strategii dotyczących pozyskiwania, przetwarzania, przechowywania i utrzymania danych w różnych etapach ich cyklu życia.
  • Wdrażanie i ocena systemów i technologii danych w celu usprawnienia zarządzania danymi, ich przetwarzania oraz automatyzacji działań biznesowych opartych na danych.
  • Nadzór nad inicjatywami związanymi z automatyzacją procesów przetwarzania, analizy i zarządzania danymi, w tym również dotyczącymi obsługi klientów.
  • Zarządzanie relacjami z partnerami i dostawcami z obszaru danych, zarówno w ramach firmy, jak i z podmiotami zewnętrznymi.
  • Zarządzanie budżetem przeznaczonym na działania związane z zarządzaniem i przetwarzaniem danych.


Wymagania:

  • 5 lat doświadczenia jako Data Engineer z wiedzą na temat Pythona, Scali lub Javy.
  • Zaawansowana znajomość systemów baz danych, zarówno relacyjnych (np. PostgreSQL, MySQL, Oracle) jak i nieralacyjnych (np. MongoDB, Cassandra).
  • Doświadczenie w projektowaniu, budowaniu oraz utrzymaniu skalowalnych i wydajnych pipeline'ów danych przy użyciu Apache Kafka, Apache Spark, Apache Flink, czy Hadoop.
  • Zaawansowana wiedza na temat narzędzi do orkiestracji (np. Apache Airflow, Luigi).
  • Praktyczna znajomość Docker i Kubernetes.
  • Doświadczenie w pracy z infrastrukturą chmurową (AWS, GCP, Azure), w tym z usługami specyficznie związanymi z danymi (np. AWS Redshift, Google BigQuery, Azure Data Lake).
  • Udokumentowane projekty implementacji systemów big data, w tym doświadczenie z real-time data processing i batch processing.
  • Zdolność do pracy w zespole, doskonałe umiejętności komunikacyjne i zarządzania projektami.
  • Płynne posługiwanie się j. angielskim


Klient oferuje:

  • stabilne zatrudnienie w oparciu o umowę o pracę w firmie o ugruntowanej pozycji na rynku.
  • pracę hybrydową w dobrze zlokalizowanym biurze w Warszawie (elastyczny wymiar).
  • szeroki pakiet benefitów.