Beschreibung
Eckdaten:• Zeitraum: 04.10.2021 – 31.12.2021 (Möglichkeit zur Verlängerung)
• Ort: Frankfurt am Main (punktuelle Anwesenheitspflicht) und remote
• Verfügbarkeit: 100% Vollzeit – 5 Tage / Woche
• Sprachen: Deutsch
• Branche: Transport
Projektbeschreibung:
Zur digitalen Transformation ihres Asset- und Instandhaltungsmanagements führt der Konzern das Programm „Asset Automatisierung & Digitalisierung“ (AAD) durch. Wichtige Themen dieses Programms bilden intelligente Fahrzeuge, die zentrale Erhebung und Analyse von Daten sowie die Automatisierung angehöriger Prozesse. Wesentliches Kernstück des AAD-Programms bildet das Asset Intelligence Center (AIC).
Das AIC ist die zentrale Daten- und Analyseplattform, die aufbereitete Fahrzeug-Zustandsdaten für Analysen und die Live-Nutzung in den operativen Prozessen (Use Cases) bereitstellt. Voraussetzung für eine effektive und effiziente Funktionsfähigkeit
dieser Daten- und Analyseplattform ist eine stringente Gesamtarchitektur. Sie beschreibt die grundlegenden Strukturen und Prinzipien für die Daten- und Informationsverarbeitung des AAD-Programms, deren Konstruktion, Nutzen und Weiterentwicklung.
Ihre Aufgaben:
• Analyse von strukturierten und semi-strukturierten Datenquellen und Unterstützung bei Datenanalyse und Datenauswertung
• Entwurf von Datenmodellen und Architekturlösungen für das AIC
• Implementierung von ETL-Pipelines auf der Grundlage verschiedener Big Data Applikationen (hauptsächlich Apache Spark, Hive, Impala)
• Erstellung von Tableau-Dashboards
• Beratung im Bereich Data Science/Data Engineering
• Fachliche und technische Beratung im Bereich Programmierung von Analysen an der Schnittstelle zu Condition Based Maintenance (CBM), Digitaler Flottensteuerung (DFS) und Störfallmanagement im Asset Intelligence Center (AIC)
• Beratung des AIC-Entwicklerteams in Bezug auf Data Intelligence Engineer-Leistungen
• Dokumentation der Arbeiten und Supportleistungen in Confluence. Dokumentation der Betriebs- und Entwicklungsleistung (DevOps) in JIRA.
Ihr Profil:
• Mehrjährige Erfahrung in der Big-Data und IoT Entwicklung sowie Kenntnisse im Bereich AI und Maschine Learning (insbesondere mit Technologien wie bspw.: Python, SQL, Java, JavaScript, AWS, OPC-UA, MQTT, Jupyter)
• Nachweisbare Erfahrung mit Projektmanagement-Tools, wie z.B. Confluence und Jira
• tiefreichende Erfahrung im Umgang mit komplexen Software Architekturen
• Erfahrung in der Software-Migration
• Erfahrung in ETL
• Erfahrung in der agilen Softwareentwicklung
• Wünschenswert: Zertifizierung im Bereich AWS (AWS Cloud Practitioner) und Mechatronik (IoT Technologies) von Siemens (Siemens Certified Mechatronics System Associate)