Najbardziej szalone projekty realizuje się poszerzając granice innowacji i postępu!
Zatrudniamy blisko 700 specjalistów we Francji, Polsce, Hiszpanii, Kanadzie, USA i Chinach. Grupa Intitek doradza i towarzyszy swoim Klientom w transformacji cyfrowej.
Intitek Polska ze swoimi oddziałami w Poznaniu, Gdańsku i Warszawie jest jednym z głównych graczy rynku outsourcingowego w Polsce. Działamy w obszarze specjalistycznych usług z zakresu IT oraz inżynierii.
Poszukujemy specjalisty z kilkuletnim doświadczeniem w wybieraniu, projektowaniu, wdrażaniu, utrzymywaniu platform do gromadzenia i analizy danych (BigData) oraz w tworzeniu rozwiązań analitycznych bazujących na tych platformach dla dużych organizacji na rynku polskim.
TWOJE OBOWIĄZKI:
- Przechowywanie i przetwarzanie dużych ilości danych – rząd petabajtowy.
- Obsługa wielu formatów danych plików: tekstowe, binarne, avro, json, xml, orc, parguet itc.
- Obsługa języków wysokopoziomowych w tym SQL.
- Przyjmowanie danych w dużych paczkach i krótkim czasie – bulk import.
- Przyjmowanie danych w trybie ciągłym – real time, stream processing, IoT.
- Obsługa danych strukturalnych, semi strukturalnych oraz niestrukturalnych – tekst, obrazy, dźwięk, video, IoT, ect.
- Obsługa różnego typu danych – pliki, tabele, strumień danych, grafy, zbiory klucz-wartość, dane geodezyjne ect.
WYMAGANIA:
- Doświadczenie w projektowaniu i wdrażaniu rozwiązań analitycznych (BigData).
- Znajomość języków programowania - Java, Scala, Kotlin, Groovy, Python, Bash.
- Doświadczenie w przetwarzaniu danych z użyciem technologii - MapReduce, Spark, Apex, Hive, Pig, Impala.
- Doświadczenie w analizie danych, Data Science, NLP, Machine Learning z wykorzystaniem - Mahout, Spark MLlib, Spark GraphX.
- Znajomość technologii NoSQL i składowania danych z użyciem - HDFS, HBase, Cassandra, Mongo, Redis, Hazelcast, Kudu, Druid.
- Umiejętność strumieniowego przetwarzanie i składowania danych z wykorzystaniem - Kafka, ActiveMQ, Flume, NiFi, MiNiFi, Logstash, Spark Streaming, Flink, Storm.
- Praktyczna znajomość bibliotek i narzędzi - Vert.x, Netty, Akka, Spring framework, Spring Data, Spring Integration, Spring XD.
- Umiejętność wyszukiwania danych z użyciem - Lucene, Solr, Elasticsearch.
- Znajomość Business Intelligence w oparciu o - Kylin, Pentaho, Mondrian, Kettle.
- Doświadczenie w wizualizacji i prezentacji danych w technologiach - Zeppelin, Jupyter, Kibana, Superset.
- Znajomość dystrybucji Big Data - Hortonworks, Cloudera, MapR.
- Doświadczenie w administrowaniu i zarządzaniu rozproszonymi klastrami obliczeniowymi i usługami - DevOps, Docker, Kubernetes, Ansible, Jenkins, Oozie.
OFERUJEMY:
- Pakiety relokacyjne
- Pakiet Multisport
- Atrakcyjne warunki zatrudnienia w oparciu o umowę o pracę lub kontrakt B2B
- Możliwość zdobycia cennego doświadczenia i rozwoju zawodowego w nowoczesnej firmie
- Profesjonalne szkolenia
- Prywatną opiekę medyczną