#1 Job Board for tech industry in Europe

GCP Data DevOps Engineer
New
DevOps

GCP Data DevOps Engineer

Type of work
Full-time
Experience
Mid
Employment Type
B2B
Operating mode
Hybrid

Tech stack

    DevOps

    advanced

    DevSecOps

    regular

    SRE

    regular

    GCP

    regular

    Ansible

    regular

    CI/CD

    regular

    Jenkins

    regular

Job description

Forma współpracy: B2B

Tryb pracy: hybrydowy 2 dni z biura w Krakowie 

Dla naszego Klienta szukamy wykwalifikowanego, doświadczonego i zmotywowanego Inżyniera DevOps, który będzie nadzorował, dostarczał i rozwijał nasze praktyki DevOps/DataOps. W tej roli będziesz projektować i rozwijać procesy oraz potoki DevOps/CICD/DataOps, zapewniając płynną integrację procesów rozwojowych i operacyjnych.


Zakres obowiązków:

  • Projektowanie, wdrażanie i utrzymanie potoków Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing dla wszystkich komponentów aplikacji, modeli danych, transformacji itp.
  • Optymalizacja, automatyzacja i usprawnianie przepływów pracy i procesów, w szczególności związanych z dostarczaniem i efektywnością operacyjną
  • Automatyzacja dostarczania infrastruktury i zarządzania konfiguracją
  • Analiza i rozwiązywanie luk oraz podatności w systemach
  • Utrzymywanie zgodności rozwiązań z wymogami bezpieczeństwa oraz standardami HSBC w sposób zautomatyzowany i aktualny
  • Współpraca z zespołami Inżynierów Danych, QA i Biznesu w celu definiowania i wdrażania najlepszych praktyk DevOps / DataOps
  • Mentoring, wspieranie i kierowanie mniej doświadczonymi inżynierami DevOps, promowanie kultury ciągłego doskonalenia
  • Monitorowanie systemów oraz reagowanie na awarie – ich rozwiązywanie i automatyzacja reakcji


Technologie:

  • BigQuery, SQL/T-SQL, GCP Data Fusion, Dataproc, Cloud Run, Secret Manager, GCS
  • Git, Ansible Tower / skrypty Ansible, Terraform, Jenkins
  • Java, Python, Cloud Composer/Airflow


Wymagane (Must Have):

  • Minimum 2-letnie praktyczne doświadczenie w roli Inżyniera DevOps/DevSecOps lub SRE, najlepiej w projektach opartych na GCP (np. hurtownie danych lub jeziora danych w chmurze)
  • Minimum 2-letnie doświadczenie z narzędziami DevOps takimi jak Ansible Tower, Jenkins, IaC (np. Terraform) w zakresie projektowania, wdrażania i utrzymania potoków CI/CD
  • Znajomość języków skryptowych takich jak Python, Bash, Groovy
  • Biegłość w pracy z Git oraz jego integracji z narzędziami DevOps (np. Ansible Tower, Jenkins)
  • Doświadczenie w pracy w środowisku Agile i znajomość odpowiedniego zestawu narzędzi
  • Silne umiejętności analityczne i rozwiązywania problemów
  • Otwartość na szybkie i samodzielne zdobywanie nowej wiedzy technicznej i miękkiej
  • Dobra organizacja pracy oraz umiejętność pracy nad wieloma zadaniami jednocześnie
  • Umiejętność pracy zespołowej, nastawienie na współpracę i wzajemne wsparcie


Mile widziane (Nice to Have):

  • Doświadczenie w modelowaniu i/lub wykorzystaniu Data Vault
  • Doświadczenie w projektowaniu, testowaniu i wdrażaniu potoków przetwarzania danych w GCP Data Fusion, CDAP lub podobnych narzędziach, w tym przetwarzaniu danych w formatach CSV, JSON, XML z API REST/SOAP, serwerów SFTP itp.
  • Znajomość nowoczesnych praktyk dotyczących kontraktów danych (data contracts), w tym doświadczenie w ich negocjowaniu, dokumentowaniu i wdrażaniu
  • Umiejętność programowania w Javie – mile widziane doświadczenie z tworzeniem pluginów do Data Fusion
  • Znajomość SQL – umiejętność optymalizacji złożonych zapytań i transformacji w BigQuery z naciskiem na efektywność kosztową, czasową i spójność danych
  • Doświadczenie w tworzeniu, testowaniu i wdrażaniu potoków przekształcania danych ETL/ELT w GCP Data Fusion
  • Znajomość Cloud Composer/Airflow, Cloud Run, Pub/Sub

Sprawdź inne ciekawe oferty pracy na: https://antal.pl/dla-kandydata  

 

Undisclosed Salary

B2B