Beratung Hadoop-Architektur und Datenintegration (m/w), J0105725

Frankfurt am Main  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Für unseren Kunden in Frankfurt suchen wir ab Juli einen Berater (m/w) für die Hadoop-Architektur und Datenintegration.

Ihre Aufgaben:

- Technische Unterstützung beim Aufbau und Betrieb einer Hadoop-Plattform (Hortonworks) auf Basis einer Teradata-Appliance und AWS-Services
- Konzeption des Hadoop-Ökosystems
- Beratung von Kundenprojekten im Hadoop-Umfeld
- Beratung von Kundenprojekten zum Einsatz der Hadoop-Plattform
- Installation und Konfiguration des Hadoop-Systems
- Monitoring und Optimierung der Hadoop-Plattform
- Implementierung von Datenintegrationslösungen in Verbindung mit der Hadoop-Plattform, dabei insbesondere:
o Talend
o Optional: Kylo
- Erstellung von ETL-Strecken zur Datenintegration in Hadoop
- Konzeption von Big Data Lösungen auf Basis der Hadoop-Plattform
- Durchführung fachlicher Abstimmungen mit Schnittstellenpartnern (bspw. SAP)
- Aufbau und Konfiguration von Datenbanken und DWH
- Erstellung von techn. Architekturlösungen und Beratung gegenüber dem Kunden

Ihre Skills:

- Detaillierte Kenntnisse von Hadoop-Distributionen (z.B. Hortonworks HDP, AWS EMR)
- Praktische Erfahrungen beim Aufbau einer Hadoop-Plattform auf Basis von Cloud-Services
- Vertiefte Kenntnisse im Umfeld von klassischen relationalen und Cloud basierten DWH-Systemen
- Mehrjährige Erfahrung im Umgang mit gängigen Datenbanksystemen (bspw. MySQL, PostgreSQL)
- Erfahrung bei der Implementierung und der Systemintegration von BI Systemen
- Detaillierte Kenntnisse von Datenintegrationslösungen und deren Durchführung mit Talend, Apache Nifi, Apache Kafka und Apache Storm
- Kenntnisse im Aufbau von ETL Prozessen (bspw. Talend,)
- Kenntnisse zum automatisierten Rollout von Hadoop-Knoten für Cloud-Lösungen
- Praktische Erfahrung bei der Implementierung von Datenanalysen auf Basis des Hadoop-Ökosystems (z.B. MapReduce, Spark, Storm)
- Detaillierte Kenntnisse zur Administration eines Hadoop-Ökosystems
- Detaillierte Kenntnisse von Tools zum Datenzugriff in einer Hadoop_Plattform (z.B. Hive, Spark SQL)
- Mehrjährige Projekterfahrung im Hadoop-Umfeld
- Umfangreiches Plattform-Knowhow (Unix, Linux, Windows etc.)
- Praxiserfahrung im Umfeld agiler Projekte sowie im Umgang mit den Methoden agiler Entwicklung

Bei Interesse freuen wir uns auf Ihr aktuelles Profil im Word-Format (bitte kein PDF)! Reference :J Duration :29.09.2017 Location : Frankfurt Languages : deutsch/englisch emagine GmbH Frommhold, Andreas T : F :
Start
07/2017
Dauer
29.09.2017
Von
emagine
Eingestellt
13.06.2017
Ansprechpartner:
Angelo Schneider
Projekt-ID:
1360689
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren