Beschreibung
Zum baldigen Projektstart bei unserem Endkunden in München suchen wir Unterstützung in diesem Projekt.Skills:
- Sehr gute Hadoop, Spark und Scala Kenntnisse.
- Fundierte Projekterfahrung bezüglich Data Ingestion und Data Integration Erfahrung mit Flume, Sqoop, Kafka, NFS.
- Sicherer Umgang mit Scheduling tools wie Oozie und Pig skript.
- Erstellen von Shell Scripts nach Anforderungen der Projekte.
- Gute Linux Ubuntu Kenntnisse.
- Erfahrung mit der Administration von Hadoop-Clustern und Cloudera Manager.
- Erfahrung mit Monitoring, Tuning, Tracing, Performance-Optimierung von Clustern wünschenswert.
- Grundlegende Kenntnisse bezüglich Java.
- Scrum-Kenntnisse.
- Abgeschlossenes Studium oder eine abgeschlossene Berufsausbildung im Bereich der Informatik, bzw. vergleichbare Berufserfahrungen.
- Fließende Deutsch- und Englischkenntnisse.
Aufgaben:
- Unser Kunde entwickelt eine Big Data Analytics Lösung und damit zum Beispiel Prediction Modelle für den Cash Cycle:
- Anbindung und Datenimport von SQL, NoSQL, external APIs zum Hadoop System, Automatisierung, Performance Optimization, Data Organization, Lifecycle Management.
- Erstellen von Analytics Queries für Spark und Hive Datenbanken mit Scala.
- Unterstützung bei Management und Monitoring von Hadoop Clustern, Datenbanken und der Server Applikation.
- Unterstützung bei Tuning, Tracing, Performance-Optimierung der Hadoop Cluster.
Beginn: ab sofort
Dauer: Februar 2019 + Option
Gebiet: München
Das Team der ID NETZ IT-Projekte GmbH freut sich auf Ihre Rückmeldung!
Mit herzlichem Gruß
Recruiting Team der ID NETZ IT-Projekte GmbH
Tel.:
Mail: