Data Engineering Developer
Lokalizacja: Zdalna. Możliwa praca hybrydowa lub w pełni stacjonarna w biurze w Warszawie (Polska).
Widełki: 14 000 - 15 000 PLN brutto UoP
Opis roli:
Poszukujemy utalentowanego i analitycznego Data Engineering Developera, który dołączy do naszego zespołu. W tej roli będziesz odpowiedzialny za projektowanie, budowanie i utrzymanie skalowalnych systemów oraz przepływów danych wspierających potrzeby analityczne i business intelligence. Korzystając z najnowocześniejszych technologii, takich jak Databricks, Azure Kubernetes Service (AKS) oraz Apache Airflow, będziesz przetwarzać i transformować duże zbiory danych. Twoja skrupulatność i zdolności rozwiązywania problemów będą kluczowe w osiągnięciu sukcesu w tej roli.
Twoje obowiązki:
- Projektowanie, rozwijanie i optymalizacja skalowalnych przepływów danych z użyciem Databricks, Python i PySpark.
- Tworzenie, optymalizacja i monitorowanie procesów przetwarzania danych za pomocą Databricks Workflows oraz Apache Airflow.
- Budowanie i zarządzanie złożonymi procesami transformacji danych z naciskiem na wydajność i niezawodność.
- Współpraca z zespołami w celu definiowania i wdrażania najlepszych praktyk modelowania danych w środowisku Databricks.
- Integracja Databricks z innymi usługami Azure, takimi jak Azure Data Factory, Azure Data Lake oraz AKS.
- Zapewnienie wysokiej jakości danych dzięki walidacji, obsłudze błędów i solidnym testom.
- Dostarczanie wiedzy technicznej i wsparcia w rozwiązywaniu złożonych problemów biznesowych przy użyciu Databricks.
- Pisanie czystego, wydajnego i dobrze udokumentowanego kodu.
- Przegląd kodu i udzielanie konstruktywnych uwag.
- Współpraca z innymi deweloperami oraz właścicielem produktu w celu zrozumienia wymagań i dostarczenia wysokiej jakości rozwiązań.
- Udział w procesach rozwoju w metodyce Agile.
Wymagania:
- Biegłość w pracy z Databricks oraz usługami Azure, takimi jak AKS, Data Factory czy Blob Storage (znajomość Azure DevOps będzie dodatkowym atutem).
- Zaawansowane umiejętności programowania w Python oraz doświadczenie z PySpark w przetwarzaniu danych.
- Znajomość narzędzi orkiestracji danych, w szczególności Apache Airflow.
- Dogłębne zrozumienie modelowania danych, hurtowni danych i frameworków Big Data.
- Znajomość Kubernetes i konteneryzacji w celu skalowalnego wdrażania aplikacji.
- Umiejętność rozwiązywania złożonych problemów związanych z danymi.
- Zdolność interpretacji danych, identyfikowania trendów i przekształcania wyników w konkretne działania.
- Dbałość o szczegóły i jakość realizowanych zadań.
- Doświadczenie w pracy zgodnie z metodykami Agile.
- Znajomość języka angielskiego na poziomie B2 lub wyższym.
Dlaczego warto do nas dołączyć?
Dołączając do naszego zespołu, zyskujesz szansę na rozwój w dynamicznym środowisku, które łączy najnowsze technologie z globalną skalą działania. Oferujemy otwartą kulturę organizacyjną, w której Twoje pomysły mają znaczenie, a Twoje zdolności mogą się rozwijać. Dbamy o różnorodność, inkluzywność i zdrowie psychiczne naszych pracowników, tworząc przestrzeń, w której każdy może poczuć się doceniony.
Aplikuj już dziś i zbuduj swoją karierę w obszarze, który inspiruje do myślenia o przyszłości!