Data Engineer (Mid / Senior / Architect)
Data Engineer (Mid / Senior / Architect) – 100% Remote
O nas
Jesteśmy Palla Data — zespół 60+ Data Engineerów, który dostarcza zespoły i rozwiązania dla klientów w Polsce i EU. Nasi DE utrzymują 200+ produkcyjnych pipeline'ów, przetwarzających dane w skali petabajtów miesięcznie, w projektach od greenfieldu po modernizację legacy hurtowni. Bez korpomowy, bez mikromanagementu — projekt dobierasz z Head of Engineering, a co 12–24 miesiące możesz zrotować na nowy.
O roli
Szukamy osób na poziomach Mid, Senior oraz Architect do pracy w projektach dla klientów z fintech, e-commerce, healthtech, telco i energetyki. Pracujesz w 100% zdalnie z Polski, na B2B lub UoP (Twój wybór). Poziom dobieramy na rozmowie — w zależności od doświadczenia i preferencji dotyczących zakresu odpowiedzialności.
Co będziesz robić
• Projektowanie i rozwój data pipeline'ów (batch + streaming) dla klientów z różnych branż — wchodzisz na projekt, na którym Twój stack i domena pasują.
• Budowa i rozwój rozwiązań lakehouse / data warehouse (Databricks, Snowflake, BigQuery, Redshift — zależnie od klienta).
• Ingestion, transformacje i orchestracja — Airflow, dbt, Dagster, ADF.
• Współpraca z Data Scientistami, Analytics Engineerami i stakeholderami biznesowymi klienta.
• Review kodu, mentoring juniorów i midów w zespole projektowym.
• Wpływ na architekturę — od wyboru stacku po standardy data modelingu (dla Seniorów i Architectów).
• Rotacja między projektami co 12–24 miesiące — decyzja po Twojej stronie.
Nasz stack (w różnych projektach)
Cloud: AWS, Azure, GCP.
Warehouse / Lakehouse: Databricks, Snowflake, BigQuery, Redshift, Delta Lake, Iceberg.
Processing: Spark, PySpark, Flink, Beam, Dataflow.
Streaming: Kafka, Kinesis, Event Hubs, Pub/Sub.
Orchestration: Airflow, dbt, Dagster, ADF, Step Functions.
Infra: Kubernetes, Docker, Terraform, Pulumi.
Languages: Python, Scala, Java, SQL.
Analytics layer: Trino, Presto, Power BI, Looker, Tableau.
Inne: Elasticsearch, MongoDB, Redis, Kafka Connect, Debezium, Great Expectations, DataHub.
Wymagania (must-have)
• Biegłość w Python lub Scala / Java (JVM).
• Solidny SQL — window functions, CTE, query tuning (każdy dialect).
• Produkcyjne doświadczenie z minimum jedną chmurą (AWS / Azure / GCP) — nie wymagamy konkretnej, jedna wystarczy.
• Doświadczenie w budowie i utrzymaniu data pipeline'ów (ETL/ELT) z użyciem dowolnego narzędzia do orchestracji.
Poziom dobieramy na rozmowie — Mid (3+ lat komercyjnego DE), Senior (5+ lat), Architect (8+ lat + doświadczenie w prowadzeniu decyzji architektonicznych).
Mile widziane (opcjonalne)
Aplikuj nawet jeśli masz tylko 2–3 z poniższych — to nie jest checklist.
• Spark / PySpark, Flink, Beam.
• Databricks lub Snowflake w produkcji (dowolne).
• Streaming — Kafka, Kinesis, Event Hubs, Pub/Sub.
• dbt (core lub cloud) i modelowanie w duchu analytics engineeringu.
• Delta Lake, Iceberg, Hudi — formaty lakehouse.
• Kubernetes, Docker, Terraform — infra i IaC.
• CI/CD (GitHub Actions, GitLab CI, Jenkins, Azure DevOps).
• Doświadczenie z MLOps (MLflow, Feature Store, Vertex AI, SageMaker).
• Trino/Presto, Elasticsearch, MongoDB, Redis.
• Data governance, lineage, quality (Collibra, Atlan, DataHub, Great Expectations).
• Znajomość konkretnej domeny biznesowej — fintech, e-commerce, healthtech, telco.
• Angielski komunikatywny (część klientów to EU, nie tylko PL).
Widełki
• Mid: 18 000 – 26 000 PLN/mc B2B (3+ lat komercyjnie).
• Senior: 24 000 – 32 000 PLN/mc B2B (5+ lat komercyjnie).
• Architect: 28 000 – 38 000 PLN/mc B2B (8+ lat + decyzje architektoniczne).
Na UoP — odpowiednik netto po przeliczeniu narzutów. Widełki do negocjacji w górę przy rzadkim stacku.
Co oferujemy
• 100% remote z Polski — bez wymogu hybrydowego, bez „2 dni w biurze miesięcznie”.
• B2B lub UoP — obie opcje, wybierasz przy podpisaniu.
• 20 / 26 dni płatnego urlopu na B2B (zależnie od stażu).
• Budżet szkoleniowy 8 000 PLN rocznie + certyfikacje AWS / Azure / GCP / Databricks / Snowflake opłacane w 100%.
• Sprzęt: MacBook Pro M-series lub mocny Windows/Linux — Twój wybór.
• Prywatna opieka medyczna (Luxmed / Medicover) + Multisport.
• Spotkania integracyjne 2x w roku — dojazd i nocleg po naszej stronie.
• Flat structure — decyzje techniczne zapadają w zespole, nie na poziomie VP.
• Rotacja projektu co 12–24 miesiące (lub zostanie na dłużej, jeśli Ci dobrze).
Proces rekrutacji
1. Rozmowa (90 min, video) — część HR (doświadczenie, oczekiwania, dopasowanie) + część techniczna z DE z zespołu (live coding w Pythonie, SQL, mini system design). Wszystko w jednym spotkaniu, bez rozbijania na kilka etapów.
2. Potencjalna oferta — feedback i decyzja w 3 dni robocze po rozmowie.
Aplikuj
Aplikuj, nawet jeśli nie spełniasz wszystkich nice-to-have. Dobieramy projekt pod Twój profil, nie odwrotnie. Szukamy szerokiego spektrum kompetencji — od Midów po Architectów.
Data Engineer (Mid / Senior / Architect)
Data Engineer (Mid / Senior / Architect)