Beschreibung
Für unseren Kunden suchen wir Unterstützung.Aufgabe:
Die Tätigkeit wird folgende Aufgaben umfassen:
- Automatisierung der Datenaktualisierung inkl. Anbindung der Schnittstelle innerhalb der Big Data Infrastruktur sowie Oracle Data Warehouse Umgebung
- Transformation / Bereinigung der Daten (automatisiert)
- Bereitstellung der Daten in einem geeigneten Format (Elasticsearch / Hadoop-Cluster)
- Integration der Datenhistorisierung
Competitor Coverage Mapping
- Automatisierung der monatlichen Datenbeladung via Schnittstelle
- Integration eines Datenmapping (zu KGS oder vergleichbar)
- Bereitstellung der Daten im Hadoop-Cluster
- Integration der Datenhistorisierung
- Integration von Ergebnissen aus Subprojekten (z.B. Gross-Add-Daten, Competitor Coverage Mapping)
- Entwicklung und Implementierung eines erweiterten Churn-Modells (verbesserter KI-Algorithmus, schnellere Aktualisierung)
- Erfahrung im Bereich Customer Service (aus Datensicht)
Erforderliche Qualifikationen:
- Fundierte Kenntnisse und praktische Erfahrungen in Big Data Infrastrukturen (Hadoop, Hive, Datameer) sowie Oracle SQL und PL/SQL.
- Ebenso fundierte Kenntnisse in der Erstellung von analytischen Modellen (Statistik-Kenntnisse unabdingbar)
- Sehr gute Kenntnisse in Big Data Software und Programmiersprachen (R, Hive, Python).
- Ebenso sehr gute Kenntnisse in "klassischer" Analysesoftware (insb. SAS).
- Fundierte Kenntnisse in der Programmierung von Web-Apps (z.B. html5, d3.js, dimple)
- Sehr gute Englischkenntnisse, da die Bereitstellung der Ergebnisse sowie die Dokumentation der Modelle in englischer Sprache verfasst werden.