Aktualnie do wewnętrznego projektu dla jednego z naszych klientów poszukujemy Architekta z kompetencjami Hadoop.
Projekt jest przewidziany na co najmniej 6 miesięcy - możliwość dalszej współpracy.
Zadania:
- projektowanie rozwiązań opartych o technologie klasy Big Data, mikroserwisy
- projektowanie rozwiązań w zakresie sieci, integracji usług i systemów
- projektowanie rozwiązań działających w środowisku chmurowym
- projektowanie mechanizmów bezpieczeństwa dla opracowanych koncepcji
- aktywne uczestnictwo w spotkaniach z klientami oraz potencjalnymi klientami
Wymagania:
- znajomość systemów operacyjnych Windows, Linux na poziomie średnio-zaawansowanym lub zaawansowanym
- znajomość jednej z technologii: Java, Python, Scala
- znajomość technologii klasy Big Data (np. Apache Hadoop, Hive, Ranger, Oozie)
- znajomość technologii przetwarzania strumieniowego i real-time: (np. Apache Spark, Kafka, NiFi)
- znajomość języka angielskiego na poziomie umożliwiającym czytanie i tworzenie dokumentacji technicznej oraz uczestnictwo w spotkaniach biznesowych z klientem zagranicznym
- nastawienie na rozwiązywanie problemów (problem-solving)
Dodatkowym atutem będzie:
- znajomość technologii przetwarzania strumieniowego i real-time (np. Apache Spark, Kafka, NiFi)
- znajomość tematyki Data Engineering, Data Governance
Co oferujemy:
- ciekawą i rozwojową pracę, w której na co dzień masz możliwość podnoszenia swoich kwalifikacji i poszerzania wiedzy
- możliwość dalszego zatrudnienia po skończeniu projektu
- możliwość częściowej pracy zdalnej (wymiar do negocjacji)