Cloudmigration Analytics und Business Intelligence Lösungen und Automatisierung von BI Lösungen Projeknummer (2960)

Thüringen, Erfurt  ‐ Vor Ort
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Der Kunde bietet umfangreiche Dienstleistungen und Produkte im Umfeld Big Data an. Neben umfassenden Beratungsleistungen zu Datenhaltung, Datenintegration, Datenaufbereitung, Datenanalyse und Datennutzung entwickelt der Kunde zusammen mit seinen Kunden für konkrete Big Data-Aufgabenstellungen Prototypen, um die Daten der Kunden nutzbar zu machen. Daneben bietet er Plattformleistungen an, die große Datenmengen speichern und verarbeiten können.
 
Aufgaben:
- Erarbeitung von Architekturen und Lösungen in Projekten zu Big-Data, Analytics und Predictive-Analytics und Vorstellung/Diskussion
dieser auf gehobener Management-Ebene
- Beratung des Konzernprogramms Datenstrategie bzgl. Referenzarchitekturen
- Konzeptionelle Weiterentwicklung der architektonischen und technologischen Plattform im Bereich Business Intelligence und Data
Intelligence vornehmlich auf Basis von Hadoop, Ansible, SAP Business Objects und weiteren Data Intelligence-Systemen
- Entwicklung von Mechanismen und Automatismen zur proaktiven Beseitigung von Schwachstellen der Hadoop-Komponenten auf
Basis standardisierter Hadoop-Cluster (Security by default)
- Aktive Beratung des Kunden bis auf CIO-Ebene hinsichtlich aktueller Architekturen im Umfeld von Data-Lake, Big Data, Business
Intelligence und Data Analytics
- Erarbeitung von Konzepten zur Automatisierung des Deployments von datengetriebenen Applikationen.
- Die Fachkraft verantwortet die Operationalisierung der Architekturthemen und Lösungsoptionen
- Organisation und Durchführung von Workshops zur Abstimmung der technischen Anforderungen im Management-Kreis
 
Anforderungen:
- Mehrjährige Erfahrung als Architekt und Entwickler im Umfeld Big Data
- Kenntnisse gängiger Architektur- und Entwicklungsstandards und Fähigkeit zur Anwendung vorhanden
- Kenntnisse von Tools aus dem Hadoop-Ökosystem – insbesondere Erfahrungen mit Flink wünschenswert
- Gängige Plattformen Unix, Linux, Windows etc. in AWS sind bekannt und können souverän bedient werden. Der Einsatz von Ansible
ist erforderlich.
- Erweiterte Kenntnisse bei klassischen und modernen Data Intelligence-Systeme wie etwa SAP Business Objects, Tableau im Zusammenspiel mit Big Data Systemen
- Fundierte Erfahrung in der technischen Konzeption cloudbasierter Plattformen mit diversen Komponenten
- Erfahrungen bzgl. Automation im Hadoop-Umfeld und weitreichende Kenntnisse bzgl. Security
- Qualitätsorientierung, Kommunikations- und Präsentationsstärke, professionelles Auftreten, Eigeninitiative sowie die Kreativität
neue Technologien hinsichtlich der Eignung zu prüfen
 
Wünschenswert:
- Erfahrungen im Umgang mit personenbezogenen Daten (Erfüllung rechtl. Vorgaben)
- Vertiefte Kenntnisse im Umfeld von klassischen relationalen und Cloud basierten DWH-Systemen
- Erfahrungen im Umfeld des DB Konzerns
- Erfahrung in der Umsetzung und Anwendung der DSGVO
 
Abgabefrist beim Kunden: 24.01.2019 um 10:00 Uhr

Wenn Sie Interesse haben und die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort sowie Ihres Profils (vorzugsweise in Word). 

Für eventuelle Rückfragen stehen wir Ihnen gerne zur Verfügung. 

mindheads GmbH 
Heinrichsdamm 40A 
96047 Bamberg 
Tel.  
Start
01.2019
Dauer
3 Monate
Von
mindheads GmbH
Eingestellt
18.01.2019
Ansprechpartner:
Gerd Blumenschein
Projekt-ID:
1704326
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren