Cloud Consultant (m/w) - (Hadoop Experte) // FFM

Hessen, Frankfurt am Main  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Sehr geehrte Damen und Herren,

im Auftrag unseres Kunden sind wir auf der Suche nach Unterstützung für die folgenden Aufgaben.

Rolle: Cloud Consultant (m/w) - (Hadoop Experte)

Start: 03.07.2017
Ende: 29.09.2017
Anzahl PT: 65,00 (5 Tage/Woche)
Standort: Frankfurt am Main

Aufgaben:
• Technische Unterstützung beim Aufbau einer Hadoop-Plattform (Hortonworks) auf Basis einer Teradata-Appliance und AWS-Services
• Konzeption des Hadoop-Ökosystems
• Beratung von Kundenprojekten im Hadoop-Umfeld
• Beratung von Kundenprojekten zum Einsatz der Hadoop-Plattform
• Installation und Konfiguration des Hadoop-Systems
• Monitoring und Optimierung der Hadoop-Plattform
• Implementierung von Datenintegrationslösungen in Verbindung mit der Hadoop-Plattform, dabei insbesondere:
• Talend
• Optional: Kylo
• Durchführung von Datenintegrationen in Verbindung mit den Hadoop-Plattformen von ZERO.ONE.DATA (Prototyping-Plattform, Teradata-Appliance, AWS-Plattform(Hortonworks))
• Erstellung von ETL-Strecken zur Datenintegration ins Hadoop
• Konzeption von Big Data Lösungen auf Basis der Hadoop-Plattform
• Durchführung fachlicher Abstimmungen mit Schnittstellenpartnern (bspw. SAP)
• Aufbau und Konfiguration von Datenbanken und DWH
• Erstellung von techn. Architekturlösungen und Beratung gegenüber dem Kunden

Muss-Anforderungen:
• Detaillierte Kenntnisse von Hadoop-Distributionen (z.B. Hortonworks HDP, AWS EMR)
• Praktische Erfahrungen beim Aufbau einer Hadoop-Plattform auf Basis von Cloud-Services
• Vertiefte Kenntnisse im Umfeld von klassischen relationalen und Cloud basierten DWH-Systemen
• Mehrjährige Erfahrung im Umgang mit gängigen Datenbanksystemen (bspw. MySQL, PostgreSQL)
• Erfahrung bei der Implementierung und der Systemintegration von BI Systemen
• Detaillierte Kenntnisse von Datenintegrationslösungen und deren Durchführung mit Talend, Apache Nifi, Apache Kafka und Apache Storm
• Kenntnisse im Aufbau von ETL Prozessen (bspw. Talend)
• Kenntnisse zum automatisierten Rollout von Hadoop-Knoten
• Praktische Erfahrung bei der Implementierung von Datenanalysen auf Basis des Hadoop-Ökosystems (z.B. MapReduce, Spark, Storm)
• Detaillierte Kenntnisse zur Administration eines Hadoop-Ökosystems
• Detaillierte Kenntnisse von Tools zum Datenzugriff in einer Hadoop_Plattform (z.B. Hive, Spark SQL)
• Mehrjährige Projekterfahrung im Hadoop-Umfeld
• Umfangreiches Plattform-Knowhow (Unix, Linux, Windows etc.)
• Praxiserfahrung im Umfeld agiler Projekte sowie im Umgang mit den Methoden agiler Entwicklung

Bei Interesse an diesen Aufgaben freuen wir uns auf die Übersendung Ihrer Unterlagen.

Bitte schicken Sie diese an

Für Rückfragen stehen wir gerne zu Verfügung.

Mit freundlichen Grüßen
Roland Schroetel
Start
07.2017
Dauer
3 Monate
Von
TÜV Rheinland Personal GmbH
Eingestellt
26.05.2017
Ansprechpartner:
Joanna Großmann
Projekt-ID:
1350981
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren