Projekt polega na wytworzeniu środowiska Bigdata na potrzeby departamentu analitycznego w organizacji
Jego celem jest uzyskanie przez organizację możliwości analitycznych na dużych wolumenach danych z systemów źródłowych organizacji
Zespół projektowy tworzą Architekt Danych, Analityk Danych, Inżynier Danych ,
Tester, Product Owner oraz dołączy do niego poszukiwany DevOps Engineer.
Oczekiwania wobec kandydatów:
- 5+ lat doświadczenia w roli DevOps Engineera w tym doświadczenie w realizacji projektów z obszaru BigData
- Praktyczna znajomość i doświadczenie w pracy z technologiami: Apache Knox, Apache Ranger, Apache Hadoop, Apache Druid, Apache Superset
- Bardzo dobra znajomość oprogramowania do automatyzacji i orkiestracji budowania środowisk -Ansible
- Bardzo dobra znajomość praktyk IaC
- Znajomość Git
- Znajomość narzędzi do zarządzania tożsamością i dostępami: LDAP oraz Hashicorp Vault
- Umiejętność budowy i utrzymywania CI/CD (Argo CD).
- Bardzo dobra znajomość narzędzi Kubernetes oraz OpenShift
- Doświadczenie w administracji systemami Linux (RHEL9)
- Umiejętność pisania skryptów z użyciem języka Bash
- Umiejętności rozwiązywanie problemów sieciowych
- Znajomość PostgreSQL
Kluczowe zadania:
- Wytworzenie środowiska bigdata przy pomocy ansible oraz argo CI/cd
- Instalacja, konfiguracja, zarządzanie klastrem Hadoop oraz Openshift
- Tworzenie i uruchamianie skryptów Ansible, Helm automatyzujących działanie
- klastra i jego elementów
- Projektowanie i budowa procesów CI/CD