Forma współpracy: B2B
Tryb pracy: hybrydowy 2 dni z biura w Krakowie
Dla naszego Klienta szukamy wykwalifikowanego, doświadczonego i zmotywowanego Inżyniera DevOps, który będzie nadzorował, dostarczał i rozwijał nasze praktyki DevOps/DataOps. W tej roli będziesz projektować i rozwijać procesy oraz potoki DevOps/CICD/DataOps, zapewniając płynną integrację procesów rozwojowych i operacyjnych.
Zakres obowiązków:
Projektowanie, wdrażanie i utrzymanie potoków Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing dla wszystkich komponentów aplikacji, modeli danych, transformacji itp.
Optymalizacja, automatyzacja i usprawnianie przepływów pracy i procesów, w szczególności związanych z dostarczaniem i efektywnością operacyjną
Automatyzacja dostarczania infrastruktury i zarządzania konfiguracją
Analiza i rozwiązywanie luk oraz podatności w systemach
Utrzymywanie zgodności rozwiązań z wymogami bezpieczeństwa oraz standardami HSBC w sposób zautomatyzowany i aktualny
Współpraca z zespołami Inżynierów Danych, QA i Biznesu w celu definiowania i wdrażania najlepszych praktyk DevOps / DataOps
Mentoring, wspieranie i kierowanie mniej doświadczonymi inżynierami DevOps, promowanie kultury ciągłego doskonalenia
Monitorowanie systemów oraz reagowanie na awarie – ich rozwiązywanie i automatyzacja reakcji
Technologie:
BigQuery, SQL/T-SQL, GCP Data Fusion, Dataproc, Cloud Run, Secret Manager, GCS
Git, Ansible Tower / skrypty Ansible, Terraform, Jenkins
Java, Python, Cloud Composer/Airflow
Wymagane (Must Have):
Minimum 2-letnie praktyczne doświadczenie w roli Inżyniera DevOps/DevSecOps lub SRE, najlepiej w projektach opartych na GCP (np. hurtownie danych lub jeziora danych w chmurze)
Minimum 2-letnie doświadczenie z narzędziami DevOps takimi jak Ansible Tower, Jenkins, IaC (np. Terraform) w zakresie projektowania, wdrażania i utrzymania potoków CI/CD
Znajomość języków skryptowych takich jak Python, Bash, Groovy
Biegłość w pracy z Git oraz jego integracji z narzędziami DevOps (np. Ansible Tower, Jenkins)
Doświadczenie w pracy w środowisku Agile i znajomość odpowiedniego zestawu narzędzi
Silne umiejętności analityczne i rozwiązywania problemów
Otwartość na szybkie i samodzielne zdobywanie nowej wiedzy technicznej i miękkiej
Dobra organizacja pracy oraz umiejętność pracy nad wieloma zadaniami jednocześnie
Umiejętność pracy zespołowej, nastawienie na współpracę i wzajemne wsparcie
Mile widziane (Nice to Have):
Doświadczenie w modelowaniu i/lub wykorzystaniu Data Vault
Doświadczenie w projektowaniu, testowaniu i wdrażaniu potoków przetwarzania danych w GCP Data Fusion, CDAP lub podobnych narzędziach, w tym przetwarzaniu danych w formatach CSV, JSON, XML z API REST/SOAP, serwerów SFTP itp.
Znajomość nowoczesnych praktyk dotyczących kontraktów danych (data contracts), w tym doświadczenie w ich negocjowaniu, dokumentowaniu i wdrażaniu
Umiejętność programowania w Javie – mile widziane doświadczenie z tworzeniem pluginów do Data Fusion
Znajomość SQL – umiejętność optymalizacji złożonych zapytań i transformacji w BigQuery z naciskiem na efektywność kosztową, czasową i spójność danych
Doświadczenie w tworzeniu, testowaniu i wdrażaniu potoków przekształcania danych ETL/ELT w GCP Data Fusion
Znajomość Cloud Composer/Airflow, Cloud Run, Pub/Sub
Sprawdź inne ciekawe oferty pracy na: https://antal.pl/dla-kandydata
B2B
Check similar offers
Check similar offers