Beschreibung
Aktuell suchen wir nach einem Data Intelligence Architect mit Spark Erfahrung für die Entwicklung von Verfahren für die Bereiche Big Data-Analytics, mathematische Optimierung und Simulation.Projektdetails:
• Zeitraum: 28.09.2020 – 31.12.2020
• Auslastung: 63 PT (Verlängerung mgl.)
• Ort: remote (Frankfurt)
• Verfügbarkeit: 100% Vollzeit
• Budget: 600€ /Tag
Skills:
• Apache Spark
• Spark Job Scheduling mit Spark SQL, Python oder R
• LDAP, Kerberos und SSO
• OpenStack
• Jira, Confluence, GitLab
Ziel ist es die erstellten Verfahren in allen Unternehmensbereichen einzusetzen. Dazu betreiben wir Server in der Cloud (Amazon AWS) und on-premises (OpenStack). In diesem Umfeld betreiben wir u.a. Spark Cluster, die in den verschiedenen Projekten und Verfahren dafür sorgen, dass die großen Datenmengen performant genutzt werden, um Ergebnisse und Erkenntnisse zu generieren. Zur Weiterentwicklung der Cluster, zur Anbindung neuer Datenquellen, Verfahren und Projekte benötigen wir Unterstützung von einem erfahrenen Architekten (m/w/d) für Apache Spark.