[Hadoop Developer] (m/w) ++ 100 PT + ++ [Frankfurt / Main]

Frankfurt am Main  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

[Hadoop Developer] (m/w) ++ 100 PT + ++ [Frankfurt / Main]

----------------------------------------------------------------------------------------------
Als Rahmenvertragspartner suchen wir für unseren Kunden einen Hadoop Developer (m/w).
Einsatzort: Frankfurt / Main
Einsatzzeit: 05.09.2016 bis 30.12.2016
Dauer: 100 PT

Aufgabenbeschreibung:
Ein wesentliches Element des Projekts ist die Verbesserung der Prognosen in der Kundeninformation. Um dies zu erreichen, wird auf den Einsatz von Big Data Technologien und Methoden gesetzt.
In 2015 wurde eine europaweite Ausschreibung gestartet, um einen Technologiepartner für die Einführung eines neuen Prognoseverfahrens zu finden. Nach erfolgreichem Abschluss der Ausschreibung soll voraussichtlich ab Juli 2016 mit der Einführung begonnen werden.
Um die Qualität der gelieferten Prognosen des Technologiepartners kontinuierlich zu sichern, wird ein Monitoring-System aufgebaut. Zudem wird intern ein eigenes Prognosemodell aufgesetzt, mit dem als Benchmark eine Qualitätsvorgabe an den Partner erstellt wird. Basis für beide Teilprojekte ist ein Hadoop-Cluster. Für die Unterstützung zum Aufbau eines Monitoring-Systems und des Benchmark-Prognosemodells wird ein Data Engineer / Data Analyst gesucht.

Der Dienstleister erbringt folgende Leistungen:
? Unterstützung beim Aufbau eines Monitoring-Systems und eines Prognosemodells
? Analyse neuartiger, komplexer Problemstellungen und deren technische Lösung
? Unterstützung bei der Analyse von Datenquellen und bei der Datenmodellierung
? Ableiten einer geeigneten Software-Architektur aus den Anforderungen
? Konzeption des Software-Designs
? Programmierung individueller Software auf dem Hadoop-Cluster
? Konzipierung und Durchführung von Tests
? Zusammenarbeit und Abstimmung mit Entwicklern anderer Teilprojekte
? Unterstützung bei der Optimierung der Konfiguration des Hadoop-Clusters

Skills:
Muss-Anforderungen:
? Praktische IT-Kenntnisse im Big Data Umfeld, speziell im Analyse-Bereich
? Mehrjährige Erfahrung mit Komponenten gängiger Hadoop-Distributionen (insb. Spark, Hive, Kafka, HBase), idealerweise mit Zertifizierung
? Umfangreiche Erfahrung in Software-Architektur und –Design
? Fundierte Kenntnisse in objektorientierter und funktionaler Programmierung (z.B. Scala, Java)
? Fortgeschrittene Programmierkenntnisse auf verteilten Architekturen
? Sicherer Umgang mit komplexen Datenstrukturen und Echtzeit-Datenströmen
? Umfangreiche Methodenkenntnisse: UML 2, agile Vorgehensmodelle für Software-Entwicklung, Konfigurations-, Release- und Testmanagement, Versionsverwaltung
? Hands-on-Mentalität und Flexibilität in einem dynamischen Umfeld

Soll-Anforderungen:
? Erfahrung mit Prognosemodellen und Qualitätsmonitoring-Systemen
? Kenntnisse statistischer Verfahren oder Machine Learning Methoden für Predictive Analytics
? Programmierkenntnisse im Analytics-Umfeld (z.B. R, Python, SQL)

Bei Interesse senden Sie uns bitte Ihr aktuelles Word-Profil mit Angabe Ihres Tagessatzes und Ihrer Verfügbarkeit an

Frist 15.08.2016, 08:00 Uhr

Bei Fragen stehe ich Ihnen gern zur Verfügung.

Mit freundlichen Grüßen
Jan Noack
-------------------------------------------------
iSAX GmbH & Co. KG
Weinbergstraße 15
01129 Dresden
Tel.:
Fax:
---
Seit 1998 bieten wir zuverlässig und kompetent Dienstleistungen im IT-Bereich und verfügt über qualifizierte und motivierte Mitarbeiter. Für namhafte Unternehmen wird ein breites Spektrum von IT-Dienstleistungen im IT-Betrieb, in der individuellen Anwendungsentwicklung sowie im Projektmanagement erbracht.
Start
08.2016
Dauer
5 Monate
Von
iSAX GmbH & Co. KG
Eingestellt
11.08.2016
Ansprechpartner:
Steffen Marquardt
Projekt-ID:
1183842
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren