Beschreibung
TätigkeitenbeschreibungBeschreibung des Projekt-/ Verfahrenskontexts
Die Leistungen des Auftragnehmers (Dienstleisters) werden primär für das Projekt Asset Digitalization erbracht. Ziel dieses Projektes ist es durch die Nutzung von Sensorik auf Güterwagen und Lokomotiven die Betriebsabläufe zu optimieren.
Gegenstand des Vertrags
Der Dienstleister erbringt folgende Leistungen:
Erstellung einer Architektur für das Datenmanagement im Asset Intelligence Center der DB Cargo
Konzeptionelle Vorbereitung der Datenintegration in einen Hadoop Datalake, primär unter Nutzung von Apache Nifi
Berücksichtigung von Streaming-Daten, Stammdaten, Bewegungsdaten mit unterschiedlichen Anforderungen an Sicherheit und Zugriffsschutz
Konzeption der Datenbereitstellung für Datenanalysen mit Tableau, Spark und weiteren Tools
Konzeption von Leitlinien für eine nachhaltige Datenablage für operative und analytische Nutzung.
Anforderungsprofil an Erfüllungsgehilfen (externe Fachkräfte)
Gewichtung fachliche Anforderungen: 70%
Muss-Anforderungen:
Fundierte Kenntnisse in der Konzeption von Big Data Infrastrukturen
Fundierte Kenntnisse im Umgang mit Apache Nifi
Fundierte Kenntnisse in der Erstellung ETL-/ELT-Jobs
Fundierte Kenntnisse in der Datenmodellierung
Fundierte Kenntnisse im Umgang mit Hadoop / Hortonworks-Stack
Soll-Anforderungen:
Erfahrung in der Arbeit im agilen Umfeld (Scrum)
Gute Kenntnisse bei der Implementierung und der Systemintegration von BI Systemen (inkl. fachlichen und technischen BI Architektur)