#1 Job Board for tech industry in Europe

  • Job offers
  • All offersWarszawaDevOpsDevOps // Cloud Engineer // Admin
    DevOps // Cloud Engineer // Admin
    new
    DevOps
    ITLT

    DevOps // Cloud Engineer // Admin

    ITLT
    Warszawa
    6 317 USDNet/month - B2B
    Type of work
    Full-time
    Experience
    Mid
    Employment Type
    B2B
    Operating mode
    Hybrid

    Tech stack

      3+ years of Azure OR GCP

      regular

      CI/CD

      regular

      IaC

      regular

      Kubernetes

      junior

    Job description

    Online interview

    W ITLT pomagamy naszym zaprzyjaźnionym firmom przekształcać ambitne pomysły w cyfrową rzeczywistość.

    Z nastawieniem na wyzwania, ciekawość technologii i zwinność - współtworzymy wyjątkowe rozwiązania IT i zapewniamy najlepszych specjalistów - którzy pomagają przyspieszyć cyfrową transformację.

    Aktualnie poszukujemy kandydatów na stanowisko: DevOps/Cloud Engineer/Admin (Azure OR GCP)


    KONKRETY:


    • Stawka: do 150PLN/h na FV
    • Miejsce pracy/praca zdalna: Zapewniamy swobodę pracy zdalnej, przy czym 1x w miesiącu zapraszamy do warszawskiego biura na PI planning/workshop.
    • Sektor: Money Services
    • Projekt/Opis: Projektowanie, wdrażanie i utrzymywanie systemów hurtowni danych oraz analityki w środowisku chmurowym. Praca w projektach w środowiskach publicznych, hybrydowych i multi-chmurowych przy projektowaniu i budowie bezpiecznych, skalowalnych i odpornych środowisk w chmurze dla działu Hurtowni Danych
    • Proces rekrutacji: 1-etapowy (techniczne spotkanie zdalne), sporadycznie może się zdarzyć krótkie dodatkowe spotkanie z Managerem połączone z decyzją
    • Szacowany czas trwania projektu: Długoterminowy/bezterminowy
    • Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy (8->16 lub 9->17)
    • Zespół/Struktura: Zespół który zajmuje się usługami SAS (4 os.) i zespół chmur publicznych (4 os) odpowiadający za projektowanie, dostarczanie usług w postaci teraformów do procesów CI/CD.
    • Technologie na projekcie: Azure, GCP, Azure DevOps, Ansible Jenkins, Terraform, Chef, Atlassiaj Jira/Confluence, Kubernetes, Kubeflow, Hadoop (HDFS, Pig, Hive, Impala, Spark)



    Do Twoich głównych obowiązków na tym stanowisku należeć będzie:

    • Projektowanie, wdrażanie i utrzymywanie systemów hurtowni danych oraz analityki w środowisku chmurowym
    • Praca w projektach w środowiskach publicznych, hybrydowych i multi-chmurowych przy projektowaniu i budowie bezpiecznych, skalowalnych i odpornych środowisk w chmurze dla działu Hurtowni Danych
    • Projektowanie i udział w testach wewnętrznych oprogramowania
    • Praca z zespołami wdrożeniowymi od etapu koncepcji przez wdrożenia do utrzymania i stałego rozwoju, zapewniając wiedzę techniczną w zakresie analizy w chmurze i lokalnej oraz przetwarzania danych
    • Planowanie, wdrażanie i rozwój systemu monitoringu infrastruktury, aplikacji i usług w chmurze
    • Projektowanie i rozwój procesów automatycznego tworzenia i zarządzania konfiguracją środowisk
    • Rozwój infrastruktury jako kodu; -Projektowanie i wdrażanie potoku ciągłej integracji i dostarczania (CI/CD)
    • Utrzymywanie aplikacji w kontenerach
    • Analiza, obsługa i rozwiązywanie wykrytych problemów
    • Tworzenie i aktualizacja dokumentacji technicznej i funkcjonalnej systemu
    • Promowanie najlepszych praktyk dotyczące platformy Azure lub GCP



    Ta oferta będzie idealna dla Ciebie, jeśli posiadasz:

    • Przynajmniej 3 lata hands-on experience z Azure lub GCP
    • Przynajmniej 5 letnie doświadczenia w pracy w złożonym środowisku przetwarzania danych tj. hurtownie danych, systemy analityczne
    • Minimum 2 lata doświadczenia jako admin
    • Minimum 3 lata doświadczenia jako kreator, architekt, developer, wdrożeniowiec, osoba rozwijająca CI/CD dla aplikacji chmurowych, przy wykorzystaniu narzędzi takich jak: Azure DevOps, Ansible, Jenkins
    • Doświadczenie w tworzeniu „Infrastucture as Code” (IaC), z wykorzystaniem standardowych narzędzi branżowych (np. np. Ansible, Terraform, Chef)
    • Dobrą znajomość systemów operacyjnych Windows i Linux
    • Biegłą znajomość Git, doświadczenie z Altlassian Jira i Confluence
    • Praktyczne doświadczenie z Kubernetesem i technologiami kontenerowymi, takimi jak Docker, Azure Container Registry



    Byłoby miło, gdybyś posiadał:

    • Doświadczenie w migrowaniu systemów, usług i użytkowników ze środowiska lokalnego do chmury;
    • Podstawową znajomość zagadnień sieciowych LAN/WAN, urządzeń sieciowych, Firewall, Proxy, Load Balancer, HTTP(s), SSH, TCP/IP, usług sieciowych REST, SOAP;
    • Doświadczenie z technologiami Hadoop, takimi jak HDFS, Pig, Hive, Impala, Spark oraz zarządzaniem systemem Hadoop.
    • Doświadczenie w pracy z platformami, narzędziami typu Machine Learning (np. Kubeflow);
    • Certyfikaty z technologii chmurowych (Azure lub GCP)



    Warto do nas dołączyć, ponieważ oferujemy:

    • Dużą swobodę pracy zdalnej
    • Długofalowe stabilne zatrudnienie w oparciu o kontrakt B2B.
    • Dopłatę do karty MultiSport oraz ubezpieczenia.
    • Elastyczne godziny startu pracy.
    • Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze.



    W razie pytań pisz śmiało na Linkedin'ie do Kuby ;)



    W polu "Dodatkowe informacje dla Działu Rekrutacji" --> opisz proszę w 2-3 zdaniach czy posiadasz doświadczenie z projektami z zakresu bankowgo/finansowego. Daj też znać ile lat doświadczenia posiadasz w Azure lub GCP

    6 317 USD

    B2B