Beschreibung
Für unseren Kunden in Frankfurt am Main sind wir aktuell auf der Suche nach einem Big Data Architekt (m/w/d) AWS, Hadoop, Streaming.Falls Sie die folgende Projektbeschreibung interessiert und Sie die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort (Stunden- oder Tagessatz) sowie Ihres Profils (vorzugsweise in Word).
Gerne können Sie uns dieses per E-Mail an schicken. Da der E-Mailversand bekanntermaßen nicht zu den sichersten Datenübertragungen zählt, möchten wir Ihnen zusätzlich eine sichere und verschlüsselte Upload-Möglichkeit für Ihre Bewerbungsunterlagen anbieten. Nutzen Sie dazu die Schaltfläche „Bewerben“ in unserem Projektportal unter https://mindheads.de.
Projektstandort: Frankfurt am Main (70% on-site)
Dauer: 01.01.2020 - 31.12.2020 mit der Option auf Verlängerung
Volumen: Vollzeit
Abgabefrist beim Kunden: 26.11.2019
Kurzbeschreibung Projekt:
Die Abteilung des Kunden bietet umfangreiche Dienstleistungen und Produkte im Umfeld Big Data an. Neben umfassenden Beratungsleistungen zu Datenhaltung, Datenintegration, Datenaufbereitung, Datenanalyse und Datennutzung entwickelt sie zusammen mit Kunden für konkrete Big Data-Aufgabenstellungen Prototypen, um die Daten der Kunden nutzbar zu machen.
Aufgaben:
- Architekturberatung, Konzeption, Installation, Administration und Absicherung von Hadoop Clustern mittels Kerberos und SSL von HDFS, Yarn, Spark, Hive Thrift Server, Hive LLAP, Spark Thrift Server, Zeppelin, Nifi, Kafka, Zookeeper, Druid, Superset in den Distributionen Hortonworks (HDF/HDP) und Amazon EMR im High Availability Mode und „always encrypted“ Ansatz.
- Architekturberatung, Konzeption, Implementierung und Inbetriebnahme von Kappa Streaming Architekturen sowie deren Konzeption, Implementierung und Inbetriebnahme
- Architekturberatung, Konzeption, Implementierung und Inbetriebnahme von EMR Clustern
Anforderungen:
- Mehrjährige Erfahrung als Architekt u. Entwickler im Umfeld Big Data
- Vorhandene Kentnnisse gängiger Architektur- u. Entwicklungsstandards in AWS
- Kenntnisse von Tools aus dem Hadoop-Ökosystem – insbesondere Erfahrungen mit AWS
- EMR und AWS Lake Formation oder HDP wünschenswert
- Gängige Plattformen Linux, Windows etc. in AWS sind bekannt und können souverän bedient werden
- AWS Services, insbesondere Analytics Services und deren automatisierte Bereitstellung können souverän eingesetzt werden
- Fundierte Erfahrung in der technischen Konzeption cloudbasierter Plattformen mit diversen Komponenten
- Erfahrungen bzgl. Automation im Hadoop-Umfeld und weitreichende Kenntnisse bzgl. Security
Für Fragen, Anregungen oder Wünsche stehen wir Ihnen gern zur Verfügung. Aktuelle Informationen über uns sowie weitere Vakanzen finden Sie auch auf unserer Homepage: https://mindheads.de
Kontakt:
mindheads GmbH
Dr.-Haas-Straße 4
96047 Bamberg
Tel.