#1 Job Board for tech industry in Europe

AWS Data Engineer
Data

AWS Data Engineer

Kraków
Type of work
Undetermined
Experience
Senior
Employment Type
B2B, Permanent
Operating mode
Remote

Tech stack

    Python

    regular

    Apache Spark

    regular

    Amazon Redshift

    regular

    Amazon S3

    regular

    Airflow

    junior

    IaC

    junior

    AWS Lake Formation

    junior

    Machine Learning

    nice to have

Job description

Online interview
Friendly offer
W ramach współpracy B2B oferujemy stawkę godzinową: 120 - 160 zł netto + VAT.
Wynagrodzenie miesięczne obliczane jest przy założeniu 168 godzin przepracowanych w ciągu miesiąca. Wynagrodzenie może ulec zmianie w zależności od ilości godzin przepracowanych w danym miesiącu.

Unity Group wdraża rozwiązania w zakresie cyfrowej transformacji przedsiębiorstw, a w szczególności e-commerce. 24 lata doświadczenia i ponad 500 udanych projektów na całym świecie pozwala nam efektywnie współpracować zarówno ze średnimi, jak i dużymi firmami, oferując kompleksowe wsparcie biznesowe oraz technologiczne.
 
UG to zespół ekspertów, który na co dzień pracuje zwinnie w 2 lokalizacjach  – Wrocławiu i Krakowie oraz zdalnie. Jako AWS Data Engineer współpracować będziesz z doświadczonym zespołem realizującym projekty dla polskich i zagranicznych klientów.


Do Twoich zadań należeć będzie:

  • Projektowanie, implementacja i automatyzacja platform danych w AWS
  • Modelowanie i wdrażanie Data Lakes oraz Hurtowni Danych
  • Przygotowywanie istotnych danych dla zespołu Data Science, jak również dla klientów zewnętrznych
  • Wspieranie i mentoring innych członków zespołu
  • Aktywny udział w różnych spotkaniach z klientami
  • Przygotowywanie dokumentacji technicznej

Wymagania:

  • Biegłość w korzystaniu z usług AWS (w szczególności: AWS Glue, Amazon Redshift, Amazon EMR, AWS Lambda, Amazon S3, Amazon RDS)
  • Zaawansowana znajomość języka Python (z Pandas)
  • Dobra znajomość Spark
  • Dobra znajomość języka SQL
  • Dobra znajomości narzędzi i procesów ETL
  • Zdolność do tworzenia i utrzymywania natywnych rozwiązań w zakresie danych w chmurze
  • Otwarte podejście do innych platform chmurowych (GCP, Azure)
  • Myślenie analityczne, proaktywne podejście do rozwiązywania problemów
  • Płynna znajomość języka angielskiego

Mile widziane:

  • Znajomość języka Scala 
  • Znajomość Airflow i Terraform 
  • Doświadczenie w prowadzeniu projektów komercyjnych
  • Doświadczenie w mentoringu i wspieraniu rozwoju innych osób w zespole
  • Znajomość branży e-commerce, finansowej, produkcyjnej lub transportowej
  • Rozumienie ogólnych koncepcji deep learningu i wyzwań związanych z wprowadzaniem modeli na produkcję (doświadczenie w badaniach nad ML lub doświadczenie inżynierskie będzie dodatkowym atutem)
  • Praktyczne doświadczenie w zakresie analityki danych i inżynierii danych
  • Solidna wiedza z zakresu statystyki
  • Doświadczenie w prowadzeniu projektów w środowisku agile
  • Konsultacje dla klienta (na każdym etapie projektu).
  • Przykłady projektów/zadań na GitHubie

Co możemy zaoferować:
 

Mamy oczywiście standardy w stylu: biblioteka firmowa, pakiet medyczny, pakiet sportowy, owoce, ubezpieczenie na życie itp. ale to, co nas naprawdę wyróżnia to: 
  • Zaufanie do ludzi 
  • Duży wpływ na to co robimy 
  • Lubimy to, co robimy :)
  • Odpowiedzialność za swój kawałek podłogi 
  • Nie robimy rzeczy bez sensu 
  • Kultura feedbacku