All offersKrakówDataAWS Data Engineer
AWS Data Engineer
Data
Unity Group

AWS Data Engineer

Unity Group
Kraków
Type of work
Undetermined
Experience
Senior
Employment Type
B2B, Permanent
Operating mode
Remote
Unity Group

Unity Group

Jesteśmy interdyscyplinarnym zespołem ekspertów, który na co dzień pracuje zwinnie z Wrocławia i Krakowa. Od 1997 roku z sukcesem wdrażamy rozwiązania w zakresie cyfrowej transformacji przedsiębiorstw, a w szczególności e-commerce.

Company profile

Tech stack

    Python
    regular
    Apache Spark
    regular
    Amazon Redshift
    regular
    Amazon S3
    regular
    Airflow
    junior
    IaC
    junior
    AWS Lake Formation
    junior
    Machine Learning
    nice to have

Job description

Online interview
Friendly offer
W ramach współpracy B2B oferujemy stawkę godzinową: 120 - 160 zł netto + VAT.
Wynagrodzenie miesięczne obliczane jest przy założeniu 168 godzin przepracowanych w ciągu miesiąca. Wynagrodzenie może ulec zmianie w zależności od ilości godzin przepracowanych w danym miesiącu.

Unity Group wdraża rozwiązania w zakresie cyfrowej transformacji przedsiębiorstw, a w szczególności e-commerce. 24 lata doświadczenia i ponad 500 udanych projektów na całym świecie pozwala nam efektywnie współpracować zarówno ze średnimi, jak i dużymi firmami, oferując kompleksowe wsparcie biznesowe oraz technologiczne.
 
UG to zespół ekspertów, który na co dzień pracuje zwinnie w 2 lokalizacjach  – Wrocławiu i Krakowie oraz zdalnie. Jako AWS Data Engineer współpracować będziesz z doświadczonym zespołem realizującym projekty dla polskich i zagranicznych klientów.


Do Twoich zadań należeć będzie:

  • Projektowanie, implementacja i automatyzacja platform danych w AWS
  • Modelowanie i wdrażanie Data Lakes oraz Hurtowni Danych
  • Przygotowywanie istotnych danych dla zespołu Data Science, jak również dla klientów zewnętrznych
  • Wspieranie i mentoring innych członków zespołu
  • Aktywny udział w różnych spotkaniach z klientami
  • Przygotowywanie dokumentacji technicznej

Wymagania:

  • Biegłość w korzystaniu z usług AWS (w szczególności: AWS Glue, Amazon Redshift, Amazon EMR, AWS Lambda, Amazon S3, Amazon RDS)
  • Zaawansowana znajomość języka Python (z Pandas)
  • Dobra znajomość Spark
  • Dobra znajomość języka SQL
  • Dobra znajomości narzędzi i procesów ETL
  • Zdolność do tworzenia i utrzymywania natywnych rozwiązań w zakresie danych w chmurze
  • Otwarte podejście do innych platform chmurowych (GCP, Azure)
  • Myślenie analityczne, proaktywne podejście do rozwiązywania problemów
  • Płynna znajomość języka angielskiego

Mile widziane:

  • Znajomość języka Scala 
  • Znajomość Airflow i Terraform 
  • Doświadczenie w prowadzeniu projektów komercyjnych
  • Doświadczenie w mentoringu i wspieraniu rozwoju innych osób w zespole
  • Znajomość branży e-commerce, finansowej, produkcyjnej lub transportowej
  • Rozumienie ogólnych koncepcji deep learningu i wyzwań związanych z wprowadzaniem modeli na produkcję (doświadczenie w badaniach nad ML lub doświadczenie inżynierskie będzie dodatkowym atutem)
  • Praktyczne doświadczenie w zakresie analityki danych i inżynierii danych
  • Solidna wiedza z zakresu statystyki
  • Doświadczenie w prowadzeniu projektów w środowisku agile
  • Konsultacje dla klienta (na każdym etapie projektu).
  • Przykłady projektów/zadań na GitHubie

Co możemy zaoferować:
 

Mamy oczywiście standardy w stylu: biblioteka firmowa, pakiet medyczny, pakiet sportowy, owoce, ubezpieczenie na życie itp. ale to, co nas naprawdę wyróżnia to: 
  • Zaufanie do ludzi 
  • Duży wpływ na to co robimy 
  • Lubimy to, co robimy :)
  • Odpowiedzialność za swój kawałek podłogi 
  • Nie robimy rzeczy bez sensu 
  • Kultura feedbacku