Cloud Consultant - Hadoop Expert

Hessen, Frankfurt am Main  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Schlagworte

Beratung Hadoop aws Cloud

Beschreibung

Für einen Kunden in Deutschland suchen wir einen Cloud Consultant mit Hadoop Erfahrungen. Beratung in Hadoop-Architektur und Datenintegration.

Aufgaben:

Technische Unterstützung beim Aufbau einer Hadoop-Plattform (Hortonworks) auf Basis einer Teradata-Appliance und AWS-Services
Konzeption des Hadoop-Ökosystems
Beratung von Kundenprojekten im Hadoop-Umfeld
Beratung von Kundenprojekten zum Einsatz der Hadoop-Plattform
Installation und Konfiguration des Hadoop-Systems
Monitoring und Optimierung der Hadoop-Plattform
Implementierung von Datenintegrationslösungen in Verbindung mit der Hadoop-Plattform, dabei insbesondere: Talend
Optional: Kylo
Durchführung von Datenintegrationen in Verbindung mit den Hadoop-Plattformen von ZERO.ONE.DATA (Prototyping-Plattform, Teradata-Appliance, AWS-Plattform(Hortonworks))
Erstellung von ETL-Strecken zur Datenintegration ins Hadoop
Konzeption von Big Data Lösungen auf Basis der Hadoop-Plattform
Durchführung fachlicher Abstimmungen mit Schnittstellenpartnern (bspw. SAP)
Aufbau und Konfiguration von Datenbanken und DWH
Erstellung von techn. Architekturlösungen und Beratung gegenüber dem Kunden

Anforderungen:

Detaillierte Kenntnisse von Hadoop-Distributionen (z.B. Hortonworks HDP, AWS EMR)
Praktische Erfahrungen beim Aufbau einer Hadoop-Plattform auf Basis von Cloud-Services
Vertiefte Kenntnisse im Umfeld von klassischen relationalen und Cloud basierten DWH-Systemen
Mehrjährige Erfahrung im Umgang mit gängigen Datenbanksystemen (bspw. MySQL, PostgreSQL)
Erfahrung bei der Implementierung und der Systemintegration von BI Systemen
Detaillierte Kenntnisse von Datenintegrationslösungen und deren Durchführung mit Talend, Apache Nifi, Apache Kafka und Apache Storm
Kenntnisse im Aufbau von ETL Prozessen (bspw. Talend)
Kenntnisse zum automatisierten Rollout von Hadoop-Knoten
Praktische Erfahrung bei der Implementierung von Datenanalysen auf Basis des Hadoop-Ökosystems (z.B. MapReduce, Spark, Storm)
Detaillierte Kenntnisse zur Administration eines Hadoop-Ökosystems
Detaillierte Kenntnisse von Tools zum Datenzugriff in einer Hadoop_Plattform (z.B. Hive, Spark SQL)
Mehrjährige Projekterfahrung im Hadoop-Umfeld
Umfangreiches Plattform-Knowhow (Unix, Linux, Windows etc.)
Praxiserfahrung im Umfeld agiler Projekte sowie im Umgang mit den Methoden agiler Entwicklung

Projektdetails:

Starttermin: 3.7.2017
Dauer: 3 Monate+
Einsatzort: Frankfurt am Main / Deutschland

Bei Interesse an diesen Aufgaben freuen wir uns auf die Übersendung Ihrer Unterlagen an
Start
07.2017
Dauer
3 Monate
(Verlängerung möglich)
Von
Segron, s.r.o.
Eingestellt
29.05.2017
Ansprechpartner:
Kristyna Cesakova
Projekt-ID:
1351541
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren