All offersWarszawaDevOpsDevOps // Cloud Engineer // Admin
DevOps // Cloud Engineer // Admin
new
DevOps
ITLT

DevOps // Cloud Engineer // Admin

ITLT
Warszawa
Type of work
Full-time
Experience
Mid
Employment Type
B2B
Operating mode
Hybrid

Tech stack

    DevOps
    regular

Job description

Online interview

W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość.

Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.

Aktualnie poszukujemy kandydatów na stanowiska: Administrator Big Data (Projekt I) // DevOps - GCP or Azure (Projekt II)


KONKRETY:


  • Stawka:

PROJEKT I: 120-140PLN/h

PROJEKT II: 150 - 165PLN/h


  • Miejsce pracy/praca zdalna: Zapewniamy swobodę pracy zdalnej, przy czym 1-2x w miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
  • Sektor: Money Services
  • Opis:

PROJEKT I: Współpraca ze zróżnicowanymi departamentami w realizacji projektów z zakresu Money Services. Codzienna praca w środowisku Hadoop (Cloudera), R&D, projektowanie przetwarzania streaming/batch, wdrażanie modeli ML wraz z zespołem Data Science

PROJEKT II: Działania R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań w sektorze Money Services


  • Proces rekrutacji: 1-etapowy (techniczne spotkanie zdalne), sporadycznie może się zdarzyć krótkie dodatkowe spotkanie z Managerem połączone z decyzją
  • Szacowany czas trwania projektu: Długoterminowy/bezterminowy
  • Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy (8->16 lub 9->17)


  • Zespół/Struktura

PROJEKT I: Zespół 10-osobowy (4x DevOps, 6x Developerów)


  • Technologie na projekcie:

PROJEKT I: Hadoop (Cloudera), Kafka, Nifi, Kubeflow, Spark, Python, Scala

PROJEKT II: GCP, Azure, Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, Gitlab, Jenkins, Ansible, Artifactory



Do Twoich głównych obowiązków na tym stanowisku należeć będzie:


PROJEKT I:

  • Zarządzanie infrastrukturą informatyczną powiązaną z klastrem Hadoop z Big Data
  • Codzienna praca z problemami związanymi z przetwarzaniem dużych zbiorów danych
  • Stałe wsparcie i współpraca z analitykami i użytkownikami narzędzi ekosystemu Big Data
  • Zapewnienie wsparcia przy projektach rozwoju platformy Big Data
  • Monitoring oraz zapewnienie wsparcia systemów Hadoop (Python, Spark, Hive, Impala)
  • Administracja systemem Linux

PROJEKT II:

  • Współtworzenie procesów CI/CD dla rozwiązań informatycznych,
  • Współpracowanie z zespołami developerskimi oraz bezpieczeństwem IT
  • Otrzymywanie wsparcia mentorskiego od doświadczonych kolegów z zespołu
  • Zbieranie doświadczenia w obszarze Cloud, Terraform, DevOps, IaC
  • Realizowanie prac R&D z wykorzystaniem nowych technologii w obszarze automatyzacji zadań z zakresu Money Services



Ta oferta będzie idealna dla Ciebie, jeśli posiadasz:


PROJEKT I:

  • Minimum 3-letnie praktyczne doświadczenie z zakresu zarządzania infrastrukturą informatyczną
  • Znajomość architektury środowiska rozproszonego Hadoop
  • Minimum 3-lata doświadczenia w zakresie administracji środowiskiem Hadoop (Cloudera, Hortonworks)
  • Minimum 3-lata doświadczenia w monitoringu i wsparciu aplikacji wykorzystujących: Apache Spark, Hive, HBase, Impala, Kudu
  • Znajomość narzędzi do monitoringu (Zabbix, Grafana, SMM itp.)
  • Podstawowa znajomość baz relacyjnych (Oracle, MS SQL, Postgres)
  • Znajomość systemów Linux Red Hat w zakresie administracji

Nice to have:

  • Wiedza w zakresie administracji: Informatica Big Data Managment, Apache Kafka, Apache Nifi, Kubernetes oraz automatyzacji CI/CD

PROJEKT II:

  • Znajomość GCP i/lub Azure,
  • Doświadczenie w administracji serwerami działającymi pod kontrolą systemu operacyjnego Linux (zarówno w środowiskach produkcyjnych jak i rozwojowych),
  • Znajomość narzędzi typu: Elastick Stack (Kibana, Logstash, Elastisearch), Hashicorp Stack (Terraform, Packer, Vault, Consul), Grafana, Checkmarx, Sonarqube, GitLab, Jenkins, Ansible, Artifactory,
  • Doświadczenie w konteneryzacji aplikacji (Kubernetes, Docker, Podman, Openshift, GKE lub inne)
  • Umiejętność pisania kodu do celów automatyzacji (Bash/Python/Java/Groovy/Go/lub inne)
  • Wiedza na temat praktyk DevSecOps



Warto do nas dołączyć, ponieważ oferujemy:

  • Dużą swobodę pracy zdalnej
  • Długofalowe stabilne zatrudnienie w oparciu o kontrakt B2B.
  • Dopłatę do karty MultiSport oraz ubezpieczenia.
  • Elastyczne godziny startu pracy.
  • Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze.




Przy aplikowaniu - napisz proszę w formularzu (pole: "Dodatkowe informacje dla Działu Rekrutacji") - który projekt/projekty wybierasz (I, II)


W razie pytań pisz śmiało na Linkedin'ie do Kuby ;)