Marka Axians obecna jest w 35 krajach. Pod jej szyldem pracuje 14 tys. pracowników. Dzięki swojej rozbudowanej sieci jednostek biznesowych łączy doświadczenie w zakresie implementacji i utrzymywania rozwiązań technologicznych z zaspokajaniem najbardziej złożonych potrzeb biznesowych.
Firmy działające pod marką Axians specjalizują się w gromadzeniu, przesyłaniu, przetwarzaniu i bezpiecznym udostępnianiu danych. Nasi specjaliści posiadają potwierdzone kompetencje wdrożeniowe od ponad 60 firm, do których należą m.in.: Cisco, Dell, F5, Fortinet, Hitachi., HP, IBM, Infor, PaloAlto, SAP, SAS, VEEAM, Vmware.
Na rynku polskim markę Axians reprezentują m.in. spółki: Axians IT Solutions oraz Axians IT Services.
Kogo szukamy?
Aktualnie poszukujemy osoby na stanowisko Python Developer Big Data, która będzie aktywnie uczestniczyła w procesie rozwijania prawdopodobnie jednego z największych projektów medycznych dotyczącym informatyzacji systemu opieki zdrowotnej.
Jeśli znasz niezbędne dla nas technologie i chcesz wykorzystać swoje umiejętności przy kreowaniu ciekawego projektu o dużym znaczeniu społecznym, to z pewnością powinieneś/powinnaś dołączyć do Axians. :)
Jakie będę Twoje główne obowiązki?
- Pisanie kodu dla procesów ETL/ELT w wysokiej wydajności w czasie zbliżonym do rzeczywistego, wykorzystując aktualne i nowe narzędzia stosu danych, takie jak Airflow, Spark i Kafka.
- Optymalizacja kodu.
- Refaktoring.
- Pisanie testów jednostkowych.
- Przygotowywanie dokumentacji.
Co jest dla nas ważne, abyś mógł/mogła komfortowo z nami pracować?
- Minimum 2 lata doświadczenia jako Python Developer.
- Biegła znajomość języków programowania, takich jak Python i SQL.
- Znajomość platformy BigQuery DWH.
- Znajomość PySpark, Spark SQL.
- Znajomość inżynierii oprogramowania, dobrych zasad, praktyk i rozwiązań.
- Znajomość co najmniej jednego narzędzia do orkiestracji i planowania, na przykład Airflow.
- Znajomość obszaru i narzędzi DevOps - Kubernetes, Docker.
- Praca z systemami o dużych wolumenach danych w środowisku Apache Airflow, Spark, Hadoop.
- Doświadczenie w optymalizacji procesów przetwarzania i przesyłania danych.
Stack technologiczny, który należy znać:
- Python
- SQL
- BigQuery DWH
- Kubernetes
- Docker
- Apache Airflow
- Apache Spark
- PySpark
- Spark SQL
- Kafka
- Hadoop
Co możemy Ci zaoferować?
- Stabilne zatrudnienie w oparciu o umowę o pracę lub B2B.
- Zdobywanie doświadczenia zawodowego w dużej międzynarodowej organizacji.
- Udział w ciekawym projekcie o dużym znaczeniu społecznym.
- Profesjonalny onboarding i szkolenia wprowadzające.
- Możliwość pracy w trybie hybrydowym/zdalnym.
- Prywatna opieka medyczna w Medicover.
- Pakiet rekreacyjno-sportowy Multisport.
- Nauka języka angielskiego na platformie TUTLO.
- Możliwość przystąpienia do ubezpieczenia grupowego na preferencyjnych warunkach.