Beschreibung
Für unser Team in München suchen wir Unterstützung!Leistungsbeschreibung:
-Entwicklung von Big Data ETL pipelines auf Basis gängiger open source Frameworks (Hadoop, Hive, Python, Spark)
-Entwicklung neuer Funktionalitäten (Analytics Module, User Feedback und Model Training Prozesse) für unsere Analytics Plattform in Python
-Entwicklung von SQL und PL/SQL Ladeläufen auf Basis spezifischer Anforderungen und Speicherung der Ergebnisse in SQL Datenbanken (Oracle)
-Entwicklung von Modellen zur Erkennung von Anomalien in Zeitreihen und granularen Daten
-Entwicklung von Entscheidungs Modellen (z.B. für die Alarm Generierung)
-Entwicklung von kausalen Modellen für die automatisierte Ursachenanalyse
-Entwicklung von Prozess Komponenten zur Textanalyse für die Generierung von Anomalie Erklärungen
-Erstellung von zugehörigen Dashboards (Tableau)
-Erstellung von Monitoringfunktionen, sowie Dokumentationen
Must:
Hadoop, Hive, Python, Spark, PL/SQL, SQL
ETL
Start: April oder Mai
PLZ: München
Dauer: 24 Monate bei quartalsweiser Beauftragung