Beschreibung
Für einen unserer Kunden suchen wir derzeit einen freiberuflichen oder festangestellten Mitarbeiter, der die folgenden Anforderungen erfüllt:Rahmenparameter:
Start: 15.08.2016
Dauer: erstmal bis 31.12.2016 + Option auf Verlängerung
Umfang: Vollzeit / onsite
Standort: Frankfurt
Vertragsart: freiberuflich oder festangestellt
Projektbeschreibung:
Das Gesamtprojekt hat insgesamt eine Laufzeit von 4 Jahren. Ein wesentliches Element des Projekts ist die Verbesserung von Prognosen zu Auslastungen. Um dies zu erreichen, wird auf den Einsatz von Big Data Technologien und Methoden gesetzt.
In 2015 wurde eine europaweite Ausschreibung gestartet, um einen Technologiepartner für die Einführung eines neuen Prognoseverfahrens zu finden. Nach erfolgreichem Abschluss der Ausschreibung soll voraussichtlich ab Juli 2016 mit der Einführung begonnen werden.
Um die Qualität der gelieferten Prognosen des Technologiepartners kontinuierlich zu sichern, wird ein Monitoring-System aufgebaut. Zudem wird intern ein eigenes Prognosemodell aufgesetzt, mit dem als Benchmark eine Qualitätsvorgabe an den Partner erstellt wird. Basis für beide Teilprojekte ist ein Hadoop-Cluster (Hortonworks-Distribution). Für die Unterstützung zum Aufbau eines Monitoring-Systems und des Benchmark-Prognosemodells wird ein Data Engineer / Data Analyst gesucht.
Aufgabenbeschreibung:
Unterstützung beim Aufbau eines Monitoring-Systems und eines Prognosesystems
Analyse neuartiger, komplexer Problemstellungen und deren technische Lösung
Unterstützung bei der Analyse von Datenquellen und bei der Datenmodellierung
Entwicklung und Anbindung von Dashboards an verteilte Systeme
Konzeption von Schnittstellen, Datenströmen und technischen Workflows
Automatisierung von Analyse-Workflows und Reporting
Durchführung von Qualitätssicherungsmaßnahmen und Tests
Zusammenarbeit und Abstimmung mit anderen Teilprojekten
Must-Have-Skills:
Praktische IT-Kenntnisse im Big Data Umfeld, speziell im Analyse-Bereich
Umfangreiche Erfahrung mit modernen Dashboarding-Tools (z.B. Tableau, Qlikview, Kibana) und deren Anbindung an das Hadoop-Cluster
Praktische Erfahrung mit Komponenten gängiger Hadoop-Distributionen (z. B. Hive, Kafka, Oozie), idealerweise mit Zertifizierung
Erfahrung mit Dashboard-gestützten Qualitätsmonitoring-Systemen (KPI-Analytics)
Umfangreiche Erfahrung mit System-Architektur und Workflow-Steuerung
Programmierkenntnisse im Analytics-Umfeld (z.B. R, Python, SQL)
Sicherer Umgang mit komplexen Datenstrukturen und Echtzeit-Datenströmen
Softskills:
Hands-on-Mentalität und Flexibilität in einem dynamischen Umfeld
Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme:
Maximilian Waller
Bei Interesse freuen wir uns über die Zusendung Ihres aktuellen CV (Word-Dokument) inkl. Angabe zur Verfügbarkeit sowie Ihres Stundensatzes, bzw. Ihrer Gehaltsvorstellungen.
Weitere spannende Positionen finden Sie unter:
https://www.geco-group.com/it-specialists/jobs
Start: 15.08.2016
Art: Contract