Cześć, jesteśmy Axabee 👋
Tworzymy kompleksowe, wydajne rozwiązania e-commerce, efekty naszej pracy są widoczne tu i teraz. Rozwijamy się i poszukujemy kolejnych Pasjonatów, którzy zasilą nasze szeregi. Pomóż nam realizować ambitne cele dołączając do naszego zespołu!
W Data Team tworzymy główny system analityczny w największym biurze podróży w Polsce. Obecnie budujemy swoją hurtownię danych z wykorzystaniem najnowszych technologii dostępnych na rynku. Na podstawie wytworzonych przez nas danych dostarczamy co miesiąc setki raportów naszym użytkownikom.
Nasze aplikacje to:
- prawie milion instalacji
- crash free users 99.86%
- 160.000 + urządzeń
- nominacje do Mobile Trends Awards.😎
O siebie dajemy:
- Realny wpływ na używane technologie i rozwiązania, możliwość kreowania projektów w zgodzie z własnymi pomysłami. Docenimy Twój punkt widzenia.
- Pracę nad aplikacjami o zasięgu globalnym, w dynamicznie zmieniającej się branży, m.in. travel (tak, to jest dzisiaj duże wyzwanie!)
- Nastawienie na jakość - przeprowadzamy testy, jesteśmy blisko użytkowników, dbamy o to co tworzymy
- Dowolność w wyborze formy współpracy, Ty decydujesz.
- Szkolenia i rozwój kompetencji (dzielimy się wiedzą wewnętrznie, jeździmy na konferencje i - kursy, organizujemy hackathony)
- Dofinansowane wyjazdy na wakacje w atrakcyjnych cenach i miejscach!
- Indywidualne podejście do Twojego rozwoju
- Pracę w centrum Wrocławia / Opola (aktualnie pracujemy w systemie hybrydowym).
Do Twoich obowiązków będzie należało:
- Rozwój wewnętrznego API dostarczającego dane naszym serwisom
- Implementacja oraz rozwój skryptów do przetwarzania danych w oparciu o Apache Spark (PySpark)
- Projektowanie i pisanie przepływów danych ELT/ETL (from scratch) w Pythonie z wykorzystaniem Airflow, Docker, GCP itp.
- Współpraca z innymi członkami DataTeam’u w celu tworzenia i utrzymywania produktów związanych z danymi
- Modyfikowanie i przeprojektowywanie obecnych procesów ETL/ELT w celu implementacji najnowszych technologii
- Zapewnienie jakości, niezawodności i czasu sprawności dla automatycznych i krytycznych procesów
Ty wnosisz do zespołu:
- Minimum 2 lata doświadczenia w przetwarzaniu danych w Pythonie
- Dobrą znajomość SQL’a
- Pasję do pracy z danymi
- Dążenie do samodoskonalenia i bycia na bieżąco z najnowszymi technologiami
- Dobrą znajomość j. angielskiego
Dodatkowym atutem będzie:
- Doświadczenie z GraphQL
- Znajomość Apache Airflow
- Znajomość serwisów do przetwarzania i przechowywania danych na GCP
- Znajomość Pyspark
- Zainteresowanie Machine Learningiem
- Doświadczenie w pracy z systemami BI: (preferowany QlikView)
Pracujemy z: JIRA, MS Teams, GitLab, Git, GitFlow.