Dołącz do zespołu zajmującego się, tworzeniem wysoko skalowalnych platform umożliwiających strukturyzację, zarządzanie, integrację, kontrolę, wykrywanie, wykorzystywanie i zarządzanie dużą ilością danych.
Zespół korzysta z najnowocześniejszych technologii, m.in.: Hadoop, Spark, Kafka, Apache Beam, Apache Flink, HBase, OLAP, Hive, Presto oraz Java, Python, C++. Dodatkowo będziesz pracował przy projektowaniu rozwiązań infrastrukturalnych o niskim opóźnieniu, które chronią przed zagrożeniami cybernetycznymi, a także wykorzystują machine learning w połączeniu z inżynierią finansową.
Będziesz miał możliwość:
- Tworzenia, projektowania oraz katalogowania wysokiej jakości modeli danych
- Tworzenia wysoce skalowalnych ram przetwarzania danych do użytku w szerokim zakresie zestawów danych i aplikacji
- Zapewnienia wglądu w dane i podejmowanie kluczowych decyzji dla procesów biznesowych w firmie.
Wymagania:
- min. 3 lata doświadczenia komercyjnego w jednej z technologii: Java, Python, C++
- biegła znajomość języka angielskiego (codzienna komunikacja odbywa się właśnie w tym języku)
- dyplom ukończenia studiów wyższych z zakresu IT lub innych nauk ścisłych
- bardzo dobre zrozumienie wielowymiarowości danych, ich selekcji oraz jakości, bezpieczeństwa, low latency, etc.
- znajomość baz danych: SQL oraz NoSQL
- bardzo dobre umiejętności analityczne i komunikacyjne
Mile widziani deweloperzy z:
- Doświadczeniem z Hadoop (Spark, HDFS)
- Znajomością branży finansów i bankowości