Beschreibung
Projektbeschreibung:Entwurf und Implementierung von ETL-gesteuerten Datenpipelines
Aufgabenbeschreibung:
Integration heterogener Datenquellen und Rationalisierung der Verarbeitung, von großen zu schnellen Daten, von Stapelverarbeitung zu ereignisgesteuerten Daten
Erstellen, Bereitstellen und Betreiben von Data-Crunching-Aufgaben und -Diensten
Sicherstellen, dass Aufträge und Dienste skalierbar und wartbar sind
Entwicklung von Tools und Skripten für die Automatisierung der täglichen Betriebsaufgaben
Anforderungen:
Deutsch in Wort und Schrift (Mindestens Level C1)
Englisch in Wort und Schrift (Muss)
Kommunikativ
Teamplayer
Kreativ
Ausgeprägte Erfahrung in der Konzeption und Implementierung von ETL-Prozessen, Datenmodellierung und SQL
Erfahrung mit Java oder Python und Frameworks, wie Spring Batch (Muss)
Vertraut mit gängigen relationalen Datenbanklösungen, z. B. Postgres
Vertraut mit No-Sql-Datenbanklösungen, insbesondere Cassandra oder Zeitserien-DBs
Erfahrung mit Ereignisverarbeitung und Messaging-Brokern, wie MQTT
Kenntnisse von Containerisierungstechnologien, insbesondere Docker
Fundierte Kenntnisse in der Arbeit mit Linux-Umgebungen
Bewerben Sie sich bitte mit einem deutschen CV im Word-Format unter Angabe eines Tagessatzes für vor-Ort und
Remote!
Aktuell ist ein Einsatz Remote geplant. Vereinzelte Reisen nach Hannover sind möglich.