Wspólnie z naszym partnerem, liderem w sektorze ochrony zdrowia, poszukujemy Big Data DevOps Engineera, który dołączy do projektu mającego na celu pozyskania zasobów wspierających hurtownię danych.
👨💻 TWOJA ROLA:
- Udział w tworzeniu i rozwoju aplikacji oraz systemów teleinformatycznych zgodnie z potrzebami Klienta.
- Wsparcie przy instalacji, konfiguracji i wdrażaniu aplikacji oraz infrastruktury systemowej.
- Udział w projektowaniu architektury systemowej oraz testowaniu wdrażanych zmian.
- Diagnozowanie i usuwanie błędów w istniejących oraz rozwijanych rozwiązaniach.
- Integracja systemów z zewnętrznymi rejestrami i innymi rozwiązaniami IT.
🔍 CZEGO OCZEKUJEMY OD CIEBIE?
-
Minimum 3-letnie doświadczenie zawodowe na stanowisku Big Data DevOps Engineer / Administrator systemów Big Data.
- Znajomość oprogramowania ekosystemu Apache Hadoop (Airflow, Ranger, Spark) i zdolność zarządzania HDFS.
- Doświadczenie projektowe w obszarze Big Data i przetwarzania dużych wolumenów danych.
- Dobra znajomość narzędzi i standardów CI/CD oraz konteneryzacji (Docker, Kubernetes).
- Doświadczenie w pisaniu skryptów shellowych oraz znajomość narzędzia Ansible.
- Doświadczenie projektowe z klastrami High Availability.
✨ OFERUJEMY:
- Uczestnictwo w spotkaniach integracyjnych oraz meetupach technologicznych, umożliwiających dzielenie się wiedzą i doświadczeniem.
- Wsparcie dedykowanego opiekuna Connectis, który zawsze jest dostępny, by pomóc Ci w sprawach związanych z projektem.
- Rozwój kariery i długofalową współpracę w firmie o ugruntowanej pozycji na rynku.
- 5000 PLN za polecenie znajomego do naszych projektów.
- Szybki i zdalny proces.
Dziękujemy za wszystkie zgłoszenia. Pragniemy poinformować, że skontaktujemy się z wybranymi osobami.