DataEngineer_DevOps (SA 31016)

Frankfurt  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Tätigkeitenbeschreibung
Wir bitten um Abgabe Ihres Angebots bis zum 12.11.2018 e.o.b. Uhr an
Als Tagessatz können wir Ihnen bis zu 1000,00 € p.d. all-in netto anbieten.
Die Anfrage bezieht sich auf eine Vollzeit-Beschäftigung mit 8h / Tag.
Bei weiteren Fragen wenden Sie sich bitte an unsere Ansprechpartnerin Nadja Mona Hölß unter

Beschreibung des Projekt-/ Verfahrenskontext
Die Leistungen des Auftragnehmers (Dienstleisters) werden für das Programm VENDO erbracht. Dieses hat folgenden Inhalt:
In VENDO erfolgt die Erneuerung der Vertriebsplattform für Leistungen im schienengebunden Personenverkehr der DB AG hin zu einer innovationsfähigen, modularen Plattform. Damit wird der Reisende von einer einfachen Buchung über eine Begleitung im Störungsfall bis hin zu einer situationsstimmigen und personalisierten Kommunikation vor, während und nach der Reise, unterstützt.
Strukturelle Defizite der IT-Architektur und veraltete IT-Hardware der bisherigen Vertriebsplattform führen dazu, dass in VENDO eine sehr weitgehende Ablösung bisheriger Teilsysteme umzusetzen ist.

Alle Leistungen werden in selbstorganisierten Teams in Anlehnung an SCRUM erbracht. Mit diesem Vorgehensmodell einhergehende Prozesse, Technologien und Fähigkeiten sind als unabdingbar für den Dienstleister anzusehen.
Gegebenenfalls erbringt der Dienstleister Leistungen für mehrere Teilprojekte von VENDO. Dabei bleibt der Kontext der Leistungserbringung hinsichtlich Leistung und Skill jeweils unverändert.
Initial erfolgt der Einsatz im Teilprojekt Data Lake. Ziel des Projektes ist die Umsetzung einer Daten- und Analyseplattform zur flexiblen Bereitstellung von Daten und Analysen entlang der gesamten Customer Journey von Mobilitätskunden

Gegenstand des Vertrags
Der Dienstleister erbringt folgende Leistungen:
Technische Weiterentwicklung des Data Lakes, Konfiguration und Installation von Hortonworkskomponenten
Sicherstellung eines stabilen Betriebs der Big Data Platform im Zusammenspiel mit einer agilen Weiterentwicklung (DevOps)
Behebung von Fehlerzuständen auf der Big Data Platform
Konzeption und Operationalisierung von Betriebsführungsprozessen nach ITIL
Fokussiert auf die Datenbereitstellung, -haltung, -sicherheit und –qualität
Verfügbarmachung der Daten bspw. Unter der Verwendung von HDFS, Hive, Hbase und Kafka

Anforderungsprofil an Erfüllungsgehilfen (externe Fachkräfte)

Gewichtung fachliche Anforderungen: 70%

Muss-Anforderungen:
Sehr gut Kenntnisse im Hadoop Hortonworks Framework
Sehr gute Kenntnisse der Spezifika von Big Data / BI Anwendungsszenarien
Sehr gute Kenntnisse in den Bereichen Datenmodellierung, Data Warehouse, Big Data, Data Lakes und Aufbau von Data Dictionaries
Erfahrungen in Konfiguration von Hortonworkskomponenten und APIs/ Schnittstellen
Erfahrung in mindestens einer Programmiersprache wie Java, Spark, Scala und/oder Python
Erfahrungen im Umfeld der Implementierungs-, Test-, Migrations-, Cut-Over-, Release-Planung
Praktische Erfahrung in der Integration von Lösungen in bestehende Landschaften inkl. Hybrid-Architekturen (Cloud & On-Premise)
Kenntnisse moderner Betriebs- und Entwicklungsarchitekturen (Cloud-Infrastructure)
Erfahrung mit IT Service Management nach ITIL
Erfahrung mit DevOps Rolle

Soll-Anforderungen:
Erfahrung in der Anwendung agiler Entwicklungsprozesse
Bahn Know-How wünschenswert
Start
31.12.2018
Von
Sopra Steria SE
SIPJOB-ID:
19377
Eingestellt
08.11.2018
Projekt-ID:
1662951
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren