Opis stanowiska:
Poszukujemy osoby, która dołączy do zespołu automatyzującego wdrożenie nowatorskiego produktu łączącego koncepty Machine Learning i BigData.
Projekt dla wielce obiecującego startupu z Doliny Krzemowej z solidnymi funduszami.
Wymagania:
- Wyższe wykształcenie, preferowane informatyczne lub inne techniczne
- Doświadczenie w pracy z kontenerami (np. Docker, LXC) i systemami ich orkiestracji (np. Docker Swarm, Kubernetes, Mesos)
- Doświadczenie w pracy z narzędziami wspierajcych IaC (Infrastructure as code) (np. Ansible, Puppet)
- Znajomość języków skryptowych, m.in. Python, Bash
- Znajomość narzędzi CI (np. Jenkins, Gitlab)
- Znajomość tematyki sieciowej
- Biegłość w języku polskim, dobra znajomości j. angielskiego w mowie i piśmie
Mile widziane:
- Doświadczenie we wdrażaniu platformy Apache Hadoop oraz Apache Spark
- Doświadczenie we wdrażaniu rozproszonych systemów plików (np. Ceph, GlusterFS)
- Znajomość tematyki chmur publicznych (AWS, Azure)
- Znajomość narzędzi do monitoringu (np. Prometheus, InfluxDB)
Co oferujemy:
- Pracę w małych zespołach (3-5 osób) w wydzielonych pokojach
- Stabilna współpraca (ciągła i długotrwała relacja z klientem)
- Bezpośredni wpływ na produkt klienta
- Możliwość nauki przez pracę w doświadczonym mocnym technicznie zespole
- Mocne maszyny deweloperskie, 2-3 monitory.
- Luźną i przyjazną atmosferę, brak stresu
- Wygodę: wiele osób przyjeżdża rowerem. Nie musisz być w garniturze, ale możesz przynieść kapcie.
- Elastyczność: rozumiemy, że niektórzy muszą wychodzić o 15, a inni lubią pracować wieczorem
- Bardzo wygodne biuro 2 minuty od stacji metra Kabaty - biurowiec NASK
- Wiedzę w zasięgu czytnika: mamy całkiem pokaźną bibliotekę, ale jeśli potrzebujesz książki
szybko możesz ją pobrać na jeden z kilku firmowych czytników