Jesteś pasjonatem biznesu i nowych technologii? Chcesz się rozwijać, pracując przy dużych projektach IT dla wiodących marek? Dołącz do jednego z naszych zespołów wewnętrznych - wyjątkowego teamu tworzącego środowiska BigData!
ZADANIA
- Aktywny udział w projektach z obszaru analityki danych z wykorzystaniem
- platformy Hadoop (w dystrybucji Hortonworks/Cloudera)
- Dbanie o wysoką jakość kodu, tworzenie wydajnych i efektywnych rozwiązań,
- Współpraca z zespołem projektowym pod kątem kluczowych systemów naszych
- Klientów (duże korporacje, rozpoznawalne marki).
WYMAGANIA
- Wykształcenie wyższe informatyczne i min. 2 lata doświadczenia
- komercyjnego w obszarze programowania (Python, Scala), min. 1 rok doświadczenia w pracy z Apache Spark
- Zainteresowanie tematyką BigData oraz Cloud (Hadoop, Amazon AWS, Google Cloud Platform, Microsoft Azure) i chęć dalszego rozwoju w tym kierunku,
- Doświadczenie z relacyjnymi bazami danych (PostgreSQL, MSSQL, Oracle)
- Mile widziane doświadczenie w rozwiązaniach chmurowych (Databricks, Snowflake,
- BigQuery)
- Sumienność i motywacja do dalszego kształcenia się.
UŻYWANE TECHNOLOGIE:
- Dystrybucje Hadoop: Cloudera i Hortonworks (HDFS, Iceberg, DataLake, Hive, Impala, Spark, Spark Streaming, Kafka, Kedro), Airflow
- Platformy BI: Power BI, Tableau, Qlik,
- CI/CD: Jenkins, Ansible, Liquibase, Flyway, Terraform, Azure DevOps,
- Języki programowania: Python, Scala, SQL, Bash.