Beschreibung
Der Kunde bietet umfangreiche Dienstleistungen und Produkte im Umfeld Big Data an. Neben umfassenden Beratungsleistungen zu Datenhaltung, Datenintegration, Datenaufbereitung, Datenanalyse und Datennutzung entwickelt der Kunde zusammen mit seinen Kunden für konkrete Big Data-Aufgabenstellungen Prototypen, um die Daten der Kunden nutzbar zu machen. Daneben bietet er Plattformleistungen an, die große Datenmengen speichern und verarbeiten können.Aufgaben:
- Erarbeitung von Architekturen und Lösungen in Projekten zu Big-Data, Analytics und Predictive-Analytics und Vorstellung/Diskussion
dieser auf gehobener Management-Ebene
- Beratung des Konzernprogramms Datenstrategie bzgl. Referenzarchitekturen
- Konzeptionelle Weiterentwicklung der architektonischen und technologischen Plattform im Bereich Business Intelligence und Data
Intelligence vornehmlich auf Basis von Hadoop, Ansible, SAP Business Objects und weiteren Data Intelligence-Systemen
- Entwicklung von Mechanismen und Automatismen zur proaktiven Beseitigung von Schwachstellen der Hadoop-Komponenten auf
Basis standardisierter Hadoop-Cluster (Security by default)
- Aktive Beratung des Kunden bis auf CIO-Ebene hinsichtlich aktueller Architekturen im Umfeld von Data-Lake, Big Data, Business
Intelligence und Data Analytics
- Erarbeitung von Konzepten zur Automatisierung des Deployments von datengetriebenen Applikationen.
- Die Fachkraft verantwortet die Operationalisierung der Architekturthemen und Lösungsoptionen
- Organisation und Durchführung von Workshops zur Abstimmung der technischen Anforderungen im Management-Kreis
Anforderungen:
- Mehrjährige Erfahrung als Architekt und Entwickler im Umfeld Big Data
- Kenntnisse gängiger Architektur- und Entwicklungsstandards und Fähigkeit zur Anwendung vorhanden
- Kenntnisse von Tools aus dem Hadoop-Ökosystem – insbesondere Erfahrungen mit Flink wünschenswert
- Gängige Plattformen Unix, Linux, Windows etc. in AWS sind bekannt und können souverän bedient werden. Der Einsatz von Ansible
ist erforderlich.
- Erweiterte Kenntnisse bei klassischen und modernen Data Intelligence-Systeme wie etwa SAP Business Objects, Tableau im Zusammenspiel mit Big Data Systemen
- Fundierte Erfahrung in der technischen Konzeption cloudbasierter Plattformen mit diversen Komponenten
- Erfahrungen bzgl. Automation im Hadoop-Umfeld und weitreichende Kenntnisse bzgl. Security
- Qualitätsorientierung, Kommunikations- und Präsentationsstärke, professionelles Auftreten, Eigeninitiative sowie die Kreativität
neue Technologien hinsichtlich der Eignung zu prüfen
Wünschenswert:
- Erfahrungen im Umgang mit personenbezogenen Daten (Erfüllung rechtl. Vorgaben)
- Vertiefte Kenntnisse im Umfeld von klassischen relationalen und Cloud basierten DWH-Systemen
- Erfahrungen im Umfeld des DB Konzerns
- Erfahrung in der Umsetzung und Anwendung der DSGVO
Abgabefrist beim Kunden: 24.01.2019 um 10:00 Uhr
Wenn Sie Interesse haben und die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort sowie Ihres Profils (vorzugsweise in Word).
Für eventuelle Rückfragen stehen wir Ihnen gerne zur Verfügung.
mindheads GmbH
Heinrichsdamm 40A
96047 Bamberg
Tel.