Forma współpracy: B2B
Tryb pracy: hybrydowy 2 dni z biura w Krakowie
Dla naszego Klienta szukamy wykwalifikowanego, doświadczonego i zmotywowanego Inżyniera DevOps, który będzie nadzorował, dostarczał i rozwijał nasze praktyki DevOps/DataOps. W tej roli będziesz projektować i rozwijać procesy oraz potoki DevOps/CICD/DataOps, zapewniając płynną integrację procesów rozwojowych i operacyjnych.
Zakres obowiązków:
- Projektowanie, wdrażanie i utrzymanie potoków Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing dla wszystkich komponentów aplikacji, modeli danych, transformacji itp.
- Optymalizacja, automatyzacja i usprawnianie przepływów pracy i procesów, w szczególności związanych z dostarczaniem i efektywnością operacyjną
- Automatyzacja dostarczania infrastruktury i zarządzania konfiguracją
- Analiza i rozwiązywanie luk oraz podatności w systemach
- Utrzymywanie zgodności rozwiązań z wymogami bezpieczeństwa oraz standardami HSBC w sposób zautomatyzowany i aktualny
- Współpraca z zespołami Inżynierów Danych, QA i Biznesu w celu definiowania i wdrażania najlepszych praktyk DevOps / DataOps
- Mentoring, wspieranie i kierowanie mniej doświadczonymi inżynierami DevOps, promowanie kultury ciągłego doskonalenia
- Monitorowanie systemów oraz reagowanie na awarie – ich rozwiązywanie i automatyzacja reakcji
Technologie:
- BigQuery, SQL/T-SQL, GCP Data Fusion, Dataproc, Cloud Run, Secret Manager, GCS
- Git, Ansible Tower / skrypty Ansible, Terraform, Jenkins
- Java, Python, Cloud Composer/Airflow
Wymagane (Must Have):
- Minimum 2-letnie praktyczne doświadczenie w roli Inżyniera DevOps/DevSecOps lub SRE, najlepiej w projektach opartych na GCP (np. hurtownie danych lub jeziora danych w chmurze)
- Minimum 2-letnie doświadczenie z narzędziami DevOps takimi jak Ansible Tower, Jenkins, IaC (np. Terraform) w zakresie projektowania, wdrażania i utrzymania potoków CI/CD
- Znajomość języków skryptowych takich jak Python, Bash, Groovy
- Biegłość w pracy z Git oraz jego integracji z narzędziami DevOps (np. Ansible Tower, Jenkins)
- Doświadczenie w pracy w środowisku Agile i znajomość odpowiedniego zestawu narzędzi
- Silne umiejętności analityczne i rozwiązywania problemów
- Otwartość na szybkie i samodzielne zdobywanie nowej wiedzy technicznej i miękkiej
- Dobra organizacja pracy oraz umiejętność pracy nad wieloma zadaniami jednocześnie
- Umiejętność pracy zespołowej, nastawienie na współpracę i wzajemne wsparcie
Mile widziane (Nice to Have):
- Doświadczenie w modelowaniu i/lub wykorzystaniu Data Vault
- Doświadczenie w projektowaniu, testowaniu i wdrażaniu potoków przetwarzania danych w GCP Data Fusion, CDAP lub podobnych narzędziach, w tym przetwarzaniu danych w formatach CSV, JSON, XML z API REST/SOAP, serwerów SFTP itp.
- Znajomość nowoczesnych praktyk dotyczących kontraktów danych (data contracts), w tym doświadczenie w ich negocjowaniu, dokumentowaniu i wdrażaniu
- Umiejętność programowania w Javie – mile widziane doświadczenie z tworzeniem pluginów do Data Fusion
- Znajomość SQL – umiejętność optymalizacji złożonych zapytań i transformacji w BigQuery z naciskiem na efektywność kosztową, czasową i spójność danych
- Doświadczenie w tworzeniu, testowaniu i wdrażaniu potoków przekształcania danych ETL/ELT w GCP Data Fusion
- Znajomość Cloud Composer/Airflow, Cloud Run, Pub/Sub
Sprawdź inne ciekawe oferty pracy na: https://antal.pl/dla-kandydata