TEX_15151 - Big Data Consultant (f/m) mit Hadoop/Spark know how

Hessen  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

TEX_15151 - Big Data Consultant (f/m) mit Hadoop/Spark know how

Einsendeschluß: 07.03.2017
Anzahl d. Personen: 1
Branche: Transport & Logistik
Einsatzort: Hessen
Zeitraum: 27.03.2017 - 29.12.2017
Auslastung: 200 PT im o.g. Zeitraum / 5 PT pro Woche
Profilvorgabe: Deutsch
Preisvorgabe: EUR/Std.

Projektbeschreibung/Aufgaben/Rolle:

Verantwortung
-Leistungserbringung gemäß der vereinbarten Standards und Vorgaben des Auftraggebers (Rahmenvertrag, Prozessmodell, ggf. weitere Vorgaben)
-Beratung des Top Managements in den nachfolgend genannten Punkten.
-Sicherstellung der Qualität des entwickelten Softwarecodes
Leistungen im o.g. Projektkontext
- Beratung des Auftraggebers in Bezug auf Hadoop und Spark auf Management Level
- Beratung des Top Managements zu Aufbau von Prozessen zur Weiterentwicklung von Big Data Analysen.
- Top Management Beratung und Unterstützung beim Aufbau eines Monitoring-Systems und eines Prognosesystems sowie der dafür erforderlichen Datenprozessierung
- Entwicklung eines geeigneten Software-Designs zur Abdeckung der Anforderungen
- Koordination und Programmierung individueller Software auf dem Hadoop-Cluster, Kenntnisse in Spark
- Automatisierung von Analyse-Workflows zur Verarbeitung von Datenströmen im Cluster (z.B. mehrstufige ETL-Prozesse bis hin zur Visualisierung)
- Beratung des Oberen Managements zur Software Qualität sowie konzipieren, Erstellen Durchführen geeigneter Tests, um eine hohe Software-Qualität sicherzustellen
- Beratung zur laufender Qualitätssicherung beim Betrieb der Software (z.B. Fehler-Tracking) und Implementierung entsprechender Ressourcen.
- Zusammenarbeit und Abstimmung mit anderen Teilprojekten
- Beratung zur und Unterstützung bei der Optimierung der Konfiguration des Hadoop-Clusters
- Beratung/ Programmierung / Implementierung / Customizing technischer Komponenten in Applikationen auf Basis der genutzten Technologien inkl. dazugehöriger Schnittstellen, Module und entsprechender Datenbanken unter Einhaltung der Standards des Auftraggebers (z.B. Nutzung der standardisierten Entwicklungsumgebungen und Programmierrichtlinien)
- Beheben von Fehlern aus den Testphasen in den Applikationen / Komponenten
- Dokumentation der technischen Komponenten
- Erstellen von Systemdokumentationen
- Erstellen von Lieferpaketen für die betreffenden Applikationen
- Beratung des Top Managements zu und Einrichten von Entwicklungsumgebungen incl. Continuous Integration
- Durchführen von Code-Reviews, Komponententests, Modultests, Modulgruppentests
- Vorbereitung von Entscheidungsvorlagen zu technischen Themen auf Management Niveau
- Präsentationen zu technisch komplexen Themenstellungen auf Top Management Level
- Berichten von Risiken und Problemen an das Top Management, die technischen Architekten und an das Projektmanagement
- Passend dimensionierte Client Hardware ist durch die Fachkraft mitzubringen.


Skills/Hinweise:

Muss-Anforderungen:
- Beratung und Software Entwicklung: Beratung und Umsetzung: Objektorientierte und funktionale Programmierung (z.B. Scala, Java), idealerweise auch auf verteilten Systemen
- Methodenkompetenz, Modellierung, Vorgehensmodelle: agiles Projektvorgehen, Überarbeitung Strategie im Bereich Big Data
- Software Architektur(management)
- Praktische IT-Kenntnisse im Big Data Umfeld, speziell im Analyse- und Entwicklungs-Bereich
- Mehrjährige Erfahrung mit Komponenten gängiger Hadoop-Distributionen (z.B. HDFS, Hive, Kafka, Yarn, MapReduce, HBase)
- Einschlägige Erfahrung innerhalb des Apache-Spark-Frameworks, insb. mit Scala, idealer-weise mit Zertifizierung
- Umfangreiche Erfahrung in der Implementierung von ETL/ELT-Prozessen sowie Job-Steuerung und –Automatisierung (z.B. mit Jenkins, Oozie)
- Sicherer Umgang mit komplexen Datenstrukturen und Echtzeit-Datenströmen und deren Konsolidierung
- Erfahrung mit Software-Repositories (z.B. Git) und Deployment-Prozessen
- Präsentations-Know-how
Soll-Anforderungen:
- Erfahrung in der Beratung des Top Managments
- Kenntnisse statistischer Verfahren und Machine Learning Methoden für Predictive Analytics
- Erfahrung mit Prognosesystemen und deren Qualitätssicherung
- Erfahrung mit Dashboarding- und Visualisierungstools und deren Anbindung an ein Cluster
- Problemlösungs-/ Arbeitsorganisations-Know-how
- Know-how zur Identifikation Chancen/ Risiken
- Kommunikations- und Moderations-Know-how

Bei Interesse senden Sie uns bitte Ihr aktuelles Profil (bitte im Word-Format) unter Angabe Ihrer Verfügbarkeit sowie Ihres gewünschten Std.- / bzw. Tagessatzes.

Bitte beachten Sie, dass wir weiterführende Informationen zu dieser Ausschreibung wie bspw. Details zum Standort, dem Endkunden oder Tages- / Stundensätzen nur an bei uns registrierte Berater / Geschäftspartner herausgeben können.

Wenn Sie sich bei uns registrieren möchten, senden Sie uns bitte Ihr Profil (bitte im Word-Format).

Start
03.2017
Dauer
10 Monate
Von
Seven Principles Solutions & Consulting GmbH
Eingestellt
03.03.2017
Ansprechpartner:
Meike Schotten
Projekt-ID:
1298660
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren