Data Engineer (m/w/d) – Spark / Databricks / Telemetry | Vollzeit | Full Remote
- Simon Deussen

- 12. Feb.
- 2 Min. Lesezeit
Aktualisiert: 2. März

Deine Rolle
Als Data Engineer entwickelst und optimierst du Datenpipelines für industrielle Telemetriedaten im großen Maßstab. Du arbeitest mit PySpark und Databricks, verwandelst komplexe Datenprobleme in robuste, skalierbare Lösungen und trägst maßgeblich dazu bei, dass unsere Plattformen auch bei hohen Datenvolumina zuverlässig performen.
Art der Stelle: Vollzeit, Festanstellung
Gehalt: 70.000,00€ - 86.000,00€ pro Jahr
Deine Aufgaben
Analyse und Verarbeitung großer Mengen industrieller Telemetriedaten mit PySpark und Databricks
Entwicklung und Optimierung skalierbarer Datenpipelines für produktive Umgebungen
Sicherstellung von Datenqualität, Performance und Zuverlässigkeit über den gesamten Datenlebenszyklus
Eigenverantwortliches Arbeiten in einem modernen, remote-first Umfeld
Enge Zusammenarbeit mit einem kleinen, hochspezialisierten Team aus erfahrenen Kolleg*innen
Dein Profil
Voraussetzungen:
Fundierte Praxiserfahrung mit PySpark und Databricks in produktiven Umgebungen
Erfahrung im Aufbau und Betrieb skalierbarer Datenpipelines für große Datenvolumina
Gutes Verständnis für Telemetrie- und Zeitreihendaten sowie deren spezifische Herausforderungen
Die Fähigkeit, komplexe Datenprobleme in pragmatische, nachhaltige Lösungen zu überführen
Strukturierte, eigenverantwortliche Arbeitsweise
Von Vorteil:
Erfahrung mit industriellen Datenquellen und IoT-Datenlandschaften
Kenntnisse in Azure (Data Lake, Event Hubs, Databricks auf Azure)
Vertrautheit mit Delta Lake, Spark Structured Streaming oder vergleichbaren Technologien
Erfahrung mit CI/CD-Prozessen für Datenpipelines
Tech Stack (Auszug)
PySpark · Databricks · Python · Azure · Delta Lake · Azure Data Lake Storage
Was wir bieten
Technisch anspruchsvolle Projekte mit industriellen Telemetriedaten und großen Datenvolumina
Ein hochspezialisiertes Team mit flachen Hierarchien und kurzen Entscheidungswegen
Echter Gestaltungsspielraum in einer wachsenden, modernen Datenplattform
Pragmatische Engineering-Kultur mit Fokus auf Qualität und Eigenverantwortung
100 % Remote mit voller Flexibilität
Mentoring und Wissensaustausch im Team
Vollständige Remite
Leistungen:
Betriebliche Weiterbildung
Firmenevents
Firmenhandy
Flexible Arbeitszeiten
Homeoffice-Möglichkeit
Mentoring-Programm für Mitarbeiter
Wenn du dich bewirbst, beantworte bitte folgende Fragen:
Für diesen Job brauchst du gute Deutsch- und Englischkenntnisse, weil du in beiden Sprachen kommunizieren und auch komplizierte Themen klar und deutlich erklären können musst. Erzähl uns bitte, wie gut du Deutsch und Englisch beherrschst und auf welchem Level du dich selbst einschätzt (z.B. Muttersprache/C2, verhandlungssicher/C1, fließend/B2).
Was sind deine Lieblings Developer Tools? Was ist dein Favorite-LLM? Und warum?
Hast du schon mal mit Spark gearbeitet oder Big-Data Projekte auf die Beine gestellt? Beschreib einfach ein oder mehrere Projekte, an denen du beteiligt warst und was du dort gemacht hast.
Was ist das Kreativste/Coolste was du bisher gebaut hast? Schicke uns hier gern links zu deinem Github/Projekte/Blogs/Webseiten/Videos.
Du hast Fragen oder willst Dich bei uns bewerben? Schick uns gern eine Mail an daniel@control-f.io.
%20-%20black.png)

