Beschreibung
Aufgabe:- Aufbau von IT Systemen zur Durchführung von Analytics und Data Science
- IT Systeme bestehen aus Big Data Komponenten (z.B. Hadoop) und klassischen Komponenten (z.B. Teradata Datenbanken)
Anforderung:
- Nachgewiesene Erfahrung in der Konzeption und Umsetzung von Projekten im Data Science Bereich
- Aktuelle Projekterfahrung im Big Data und im klassischen DWH Umfeld
- Tiefgehende Erfahrung in der Konzeption von BI/DWH-Architekturen
- Nachgewiesene Fähigkeit für spezifische Fragestellung im Data Science Bereich sowie adäquaten Technologien aus Big Data und / oder klassischen DWH Bereich
Tiefgehende Datenmodellierungs-Erfahrung
- Nachgewiesene Erfahrung in der Konzeptionierung und Umsetzung von Informations-Architekturen
- Langjährige Erfahrung in allen Prozessschritten von Data Preparation bis Data Visualization
- Langjährige Erfahrung in der Konzeption und Umsetzung verteilter Algorithmen und Modellierungstechniken (z.B. Clusteranalyse, Decision Trees, Support Vector Machines, Random Forrest, k-Nearest Vector, usw.)
- Nachgewiesene Projekterfahrung auf einem oder mehreren der folgenden Gebiete: Machine Learning, Complex Event Processing, Semantic Web, Linked Data, Cluster Computing
- Tiefgehende Kenntnisse relevanter Algorithmen und Tools zur Data Exploration
- Langjährige Erfahrung mit R und entsprechenden Entwicklungsumgebungen
- Erfahrung mit den Technologien Parquet, Hive & HBase
- Kenntnisse zu Apache spark
- Know How mit State-of-the-art Search-Engines und Paketen wie solr oder / und elasticsearch (ELK-stack)
Wünschenswert:
- Erfahrung in Data Vault Modellierung
- Erfahrung mit PowerDesigner zur Modellierung
Umgebung/Sonstiges:
- 4 bis 5 Tage/Woche
- Option auf Verlängerung
Beginn: 20.04.2015
Dauer: 30.09.2015
Branche: Handel/Konsum