Data Engineer

Data Engineer

Python

centrum, Gdańsk

SCALO

Full-time
B2B
Mid
Remote

Tech stack

    Python

    regular

    Microsoft Azure

    regular

    PySpark

    regular

Job description

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. 

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.

 

Cześć! 

U nas znajdziesz to, czego szukasz - przekonaj się! 

W Scalo czeka na Ciebie:

  • udział w globalnych projektach transformacji cyfrowej w branży przemysłowej i energetycznej,
  • projektowanie, rozwój i wsparcie rozwiązań opartych o narzędzia analityczne Microsoft Azure (Azure Databricks, Azure SQL, Azure Data Factory, Azure Functions),
  • tworzenie w pełni zautomatyzowanych potoków przetwarzania danych w środowisku chmurowym,
  • rozwój i dokumentacja procesów integracji danych, aplikacji wizualizacyjnych oraz zarządzania katalogami danych,
  • optymalizacja wydajności aplikacji opartych o Apache Spark / PySpark,
  • analiza i eksploracja zbiorów danych pochodzących z różnych źródeł,
  • współpraca w międzynarodowym zespole w metodyce Scrum,
  • możliwość pracy z technologiami takimi jak: Azure Cloud, Python, PySpark, SQL, Apache Spark, YAML, REST API, C#, Microsoft DevOps, Power BI,
  • praca w 100% zdalna, z możliwością okazjonalnych wizyt w biurze w Gdyni (szczególnie podczas wdrożenia),
  • stawka: do 150zł/h + VAT.

Ta oferta jest dla Ciebie, jeśli:

  • posiadasz minimum 3-letnie doświadczenie w pracy jako Data Engineer, w obszarze przetwarzania i integracji danych lub budowy rozwiązań analitycznych,
  • biegle programujesz w Pythonie, zwłaszcza w kontekście analizy i przetwarzania danych (pandas, PySpark),
  • masz praktyczną znajomość SQL i projektowania baz danych,
  • masz doświadczenie w pracy z Apache Spark / PySpark,
  • swobodnie komunikujesz się w języku angielskim (min. B2),
  • wykazujesz się analitycznym myśleniem i chęcią nauki nowych technologii.

Co dla Ciebie mamy:

  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), 
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,  
  • kafeteryjny system benefitów – Motivizer, 
  • prywatną opiekę medyczną – Luxmed.

 

Brzmi interesująco? Aplikuj – czekamy na Twoje CV! 

Published: 26.08.2025
Office location