Beschreibung
Aufgabenbeschreibung:Der Service Layer bzw. die Risk Plattform soll
Account- und Portfolio-Daten, welche von einem
Webserver aus per HTTP ins HDFS geladen werden,
validieren und transformieren, um die relevanten
Informationen an die Risk Management Systeme (RMS
(one), etc.) zu übergeben. Zu diesem Zweck wird ein
Team von Spark-Entwicklern & Big Data Engineers
benötigt, welche in einem Minimal Viable Product
(MVP) das komplette Backend implementieren.
- Aufbereitung von Daten für Analytics und/oder Reportings
- Performance-Analysen und Tuning von Spark Jobs
- Technische Beratung und Unterstützung unserer Datenanalysten
Anforderungen:
Universitäts- / Hochschulabschluss, vorzugsweise Informatik +++
- Gute Kenntnisse des Hadoop-Ökosystems (Architektur, MapReduce, HDFS, YARN) ++
- Erfahrungen in der Entwicklung mit Big Data Technologien (Hadoop, Hive, Spark, Kafka) ++
- Mind. 4 Jahre Erfahrung im Bereich Datenverarbeitung und/oder Softwareentwicklung in Java / Scala ++
Projektdaten:
Projekt:14640
Beginn: 15.05.2018
Dauer: 31.08.2018
Haben wir Ihr Interesse geweckt? Wir freuen uns über Ihren Kontakt!