Beschreibung
Aufgabe:- Konzeption von ETL bzw. ELT-Prozessen im Hadoop-Ecosystem
- Integration der konventionellen DWH Technologie auf der Teradata mit der Big Data Welt
(primär auf Hadoop)
Anforderung:
- Nachgewiesene Erfahrung in der Konzeption und Umsetzung von Big Data Projekten
- Tiefgehende Erfahrung in der Konzeption von BI/DWH-Architekturen
- Tiefgehende Datenmodellierungs-Erfahrung
- Erfahrungen in der Konzeption von Informations-Architekturen
- Erfahrung in der Erarbeitung von Konzepten und Implementierungen zur Datenqualität
- Langjährige Erfahrung in der Datenbankoptimierung (insbesondere bzgl. Zugriffszeiten)
- Nachhaltige Erfahrung in der Konzeption von DWH Bewirtschaftungs-Prozessen (ETL / ELT) insbesondere im Hadoop-Umfeld
- Erfahrung mit Talend als Werkzeug zur Erstellung von ETL / ELT Strecken
- Langjährige Erfahrung in der Erstellung von ETL Strecken für sehr große Datenmengen
- Langjährige Erfahrung bei der Entwicklung und Test von komplexen Map-/Reduce-Jobs mit Hadoop/YARN
- Erfahrung mit den Technologien Parquet, Hive & HBase
- Kenntnisse zu Apache spark
- Know How mit State-of-the-art Search-Engines und Paketen wie solr oder / und elasticsearch (ELK-stack)
Wünschenswert:
- Erfahrung in Data Vault Modellierung
- Erfahrung mit PowerDesigner zur Modellierung
Umgebung/Sonstiges:
- 4 bis 5 Tage/Woche
- Option auf Verlängerung
Beginn: 20.04.2015
Dauer: 30.09.2015
Branche: Handel/Konsum