Big Data Engineer (m/w) für unseren direkten Endkunden

Hessen, Frankfurt am Main  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Aufbau einer Analyics-Architektur und die Erarbeitung von Datenstrukturen und eines Datenkatalogs als Basis für weitreichende Analytics- und Reporting-Funktionalitäten.

Aufgaben:

• Konzeption und Umsetzung von Datenmodellen im Big Data Umfeld
• Aufbau einer Datenstruktur im Data-Lake inkl. Aufbau eines Datenkataloges für die nachhaltige Weiterentwicklung der Analytics- und Reportlandschaft
• Integration von weiteren Daten in vorhandene Strukturen im Data Lake
• Zusammenführung von Daten aus unterschiedlichen Datenstrukturen und Herkunftssystemen
• Integration von strukturierten und unstrukturierten Daten
• Datenintegration im Zusammenspiel mit den Datenschutzanforderungen
• Beratung bei der Aufsetzung des Data Governance Prozesses beim Kunden für unterschiedliche Data Lake Instanzen
• Performance-Tuning im HDFS
• Erarbeitung und Operationalisierung eines Deploymentprozesses für Modelle
• Aufbereitung der Daten im Data Lake für Reportingtools Tableau und Qlik Sense
• Coaching der Kunden
• In der Zusammenarbeit auf Teamebene erfolgt die Umsetzung auf Basis von agilen Vorgehensweisen wie z.B. SCRUM, die Einhaltung der SCRUM Prozesse im SCRUM Team ist zu berücksichtigen und ein regelmäßiger Austausch mit dem SCRUM Master/ SCRUM Team ist erforderlich.
• Die externe Fachkraft übernimmt im Rahmen ihrer Beauftragung Aufgaben im Team gemäß der agilen Methoden durch Pull von Tasks, die aus User Stories resultieren, gemäß ihrer Kompetenzen und in Abstimmung mit dem gesamten Umsetzungsteam
• Die externe Fachkraft nimmt an allen fachbezogenen Arbeitssitzungen des Teams inkl. der Retrospektiven teil


Anforderungen:

• Problemlösungs-/ Arbeitsorganisations-Know-how
• Agile Methoden (Scrum / Kanban): Agiles Mindset
• Kenntnisse Big Data / Analytics / Reporting allgemein
• Data Lake Konzeption und Umsetzung in Großkonzernen für BI Projekte

(Tool-)Kenntnisse:
• Hive - Datenstrukturierung in HIVE
• Python
• Hadoop
• HBase
• HDFS
• REST
• GIT
• Docker
• Kafka

• Data Governance Beratung / Prozesse
• Datenstrukturierung im Big Data Umfeld
• Fließend deutsch
• Verfügbarkeit vor Ort in Frankfurt am Main mindestens 3 Tage die Woche



Start & Dauer:
ab Anfang Oktober bis zunächst Ende 2018


Kontaktadresse:


Wenn wir damit Ihr Interesse geweckt haben und Sie sich bei uns melden - sei es per E-Mail oder in anderer
Form -, erklären Sie zugleich Ihr EINVERSTÄNDNIS damit, dass wir Ihren vollständigen Namen, Ihre Adresse und
Ihre Kontaktdaten sowie Ihre Angaben zur Qualifikation (z.B. Ausbildung, Tätigkeit, Profil, Referenzen)
ausschließlich für unsere unternehmerischen Zwecke verarbeiten. Eine Weitergabe an Dritte erfolgt nicht (bzw.
gegebenenfalls in einem späteren Stadium nur mit Ihrer gesonderten Einwilligung). Eine Löschung dieser Daten
erfolgt, sobald feststeht, dass ein Vertrag in absehbarer Zeit nicht zu Stande kommt.

Wir weisen weiter darauf hin, dass Sie diese Einwilligung jederzeit mit sofortiger Wirkung widerrufen können,
zweckmäßigerweise in Textform per E-Mail an

Wir verweisen im Übrigen auf die Datenschutzerklärung in unserem Impressum und weiter gehende
Datenschutzregelungen beim Zustandekommen einer Vertragsbeziehung mit uns.
Start
10.2018
Dauer
3 Monate
(Verlängerung möglich)
Von
SPS Consulting & Services GmbH
Eingestellt
30.08.2018
Ansprechpartner:
Ulrich Wenzel
Projekt-ID:
1623614
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren