Beschreibung
• Beratung und Umsetzung bei dem Design und der Umsetzung von ETL-Strecken• Modellierung und Scheduling der relevanten Daten und ETL-Strecken
• Design und Aufbau der Datenbanken
• Beratung in Big-Data-, Analytics- und Predictive Analytics-Projekten hinsichtlich Architektur, Schnittstellendesign und Quellsystemanbindung
Muss-Anforderungen:
Mehrjährige Erfahrung im Umgang mit relationalen Datenbanken (insbesondere Oracle, MySQL)
Ausgeprägte Kenntnisse im Aufbau von ETL Prozessen (insbesondere mit MQTT/Kafka und Talend )
Fundierte Kenntnisse / Erfahrungen mit
Datenintegrationen im Hadoop-Umfeld (insbesondere HIVE, HBase)
Software-Design, Architektur-Design, technischer Konzeption
Datenmodellierung und Datenbankdesign
Implementierung und Systemintegration von BI Systemen (inkl. fachlichen und technischen BI Architektur)
Wünschenswert sind darüber hinaus:
Erfahrung mit Data Warehouse Applikationen (z.B. Teradata) wünschenswert
Kenntnisse um Umgang mit Apache Storm, Apache Sqoop, Apache Spark und REST
Anforderung:
Projektstart: 28.01.2019
Projektende: 28.06.2019 + Option
Auslastung: Vollzeit
Leistungsort: Frankfurt