💸 Stawka: 160-200 zł/godz B2B 👈
⏳ Czas projektu: długoterminowy 👈
🌴 Forma pracy: 100% zdalnie 👈
Cześć! 👋
Do projektów dostawcy DataBricks poszukujemy doświadczonych Data Engineerów.
We współpracy z naszym bliskim partnerem mamy dostęp do bazy projektów związanych z technologią DataBricks. Współpraca w modelu tzw. talent reserve strategy, dzięki któremu dostawca DataBricks będzie mógł samodzielnie wybierać kandydatów, którzy odpowiadają ich aktualnemu zapotrzebowaniu.
Poszukujemy samodzielnych specjalistów, którzy posiadają już doświadczenie z platformą DataBricks. Zależy nam by kandydaci wykazywali pełne zrozumienie dla rozwiązań chmurowych (przede wszystkim Azure, ale również AWS/ GCP) oraz biegle znali przynajmniej jeden z najczęściej wykorzystywanych języków do tworzenia aplikacji na platformie DataBricks (Python, Scala, Java).
Projekty mogą dotyczyć całego spektrum pracy z danymi - analiza Big Data, tworzenie data warehouses/ lakes, integracja platformy DataBricks z usługami chmurowymi, analiza danych z urządzeń IoT, Data Governance i Security, projektowanie procesów ETL, zarządzanie cyklem życia modeli ML i wiele innych. Ze względu na to nie poszukujemy osób, które wpasują się w konkretny szablon.
Technologie, które przyciągną naszą uwagę to m.in.: Apache Spark, Kafka, Hive, Hadoop, Kubernetes, Docker, SQL (w szczególności DataBricks SQL), Delta Lake, Jupyter Notebooks, CI/CD Tools (Jenkins, GitLab CI, Azure DevOps), Power BI, Tableau, Qlik, ETL Tools (Apache Nifi, Informatica, Talend).
Początkowy proces będzie składać się ze screeningu z CRODU oraz rozmowy technicznej z DataBricks. Następnym krokiem jest wprowadzenie profilu kandydata do talent poola, z którego dostawca będzie mógł wybierać specjalistów, których aktualnie potrzebuje.
Wymagania:
⚡️ Udokumentowane solidne doświadczenie w pracy jako Data Engineer
⚡️ Bardzo dobra znajomość platformy DataBricks
⚡️ Bardzo dobra znajomość Python/ Java/ Scala
⚡️ Znajomość technologii Big Data
⚡️ Doświadczenie w korzystaniu z Microsoft Azure (np. Data Factory, Synapse, Logic Apps, Data Lake)
⚡️ Doświadczenie w pracy z ustrukturyzowanymi oraz nieustrukturyzowanymi danymi
⚡️ Umiejętności interpersonalne i zespołowe
⚡️ Umiejętność podejmowania inicjatywy i samodzielność
⚡️ Angielski na poziomie umożliwiającym swobodną komunikację w zespole
Mile widziane:
⚡️ Doświadczenie w projektowaniu i optymalizacji przepływów danych za pomocą, DBT, SSIS, TimeXtender lub podobnych rozwiązań (ETL, ELT)
⚡️ Znajomość rozwiązań AWS oraz GCP
Jak działamy i co oferujemy?
🎯 Stawiamy na otwartą komunikację zarówno w procesie rekrutacji jak i po zatrudnieniu - zależy nam na klarowności informacji dotyczących procesu i zatrudnienia
🎯 Do rekrutacji podchodzimy po ludzku, dlatego upraszczamy nasze procesy rekrutacyjne, żeby były możliwie jak najprostsze i przyjazne kandydatowi
🎯 Pracujemy w imię zasady "remote first", więc praca zdalna to u nas norma, a wyjazdy służbowe ograniczamy do minimum
🎯 Oferujemy prywatną opiekę medyczną (Medicover) oraz kartę Multisport dla kontraktorów
Check similar offers