Beschreibung
Eckdaten:• Zeitraum: 01.10.2021 – 30.11.2021
• Ort: remote (ggf. punktuelle Anwesenheit in Frankfurt am Main)
• Verfügbarkeit: 100% Vollzeit – 5 Tage / Woche
• Sprache: Deutsch
• Branche: Transport
Projektbeschreibung:
Neben umfassenden Beratungsleistungen zu Datenhaltung, Datenintegration, Datenaufbereitung, Datenanalyse und Datennutzung werden zusammen mit Kunden für konkrete Big Data-Aufgabenstellungen von Prototypen bis hin zu betriebsgeführten Verfahren entwickelt, um die Daten der Kunden nutzbar zu machen. Daneben werden Services angeboten, die große Datenmengen speichern und verarbeiten können.
Ihre Aufgaben:
• Beratung bzgl. der Methodik DataVault 2.0
• Modellierung von Kundenanforderungen nach der Methodik Data Vault
• Implementierung der Kundenanforderungen mit dem Tool 2150 datavaultbuilder
• Implementierung von Business-Objekten (Ausleitungen) mit dem Tool datavaultbuilder und Oracle
• Implementierung von komplexen PL/SQL Packages zur Automatisierung der Datenbereitstellung
• Analyse von Eingangs- und Ausgangsschnittstellen
• Automatisierung der Verarbeitung mit Apache Airflow mit python-Skripten
• Teilnahme an Meetings zur Klärung von fachlichen und technischen Details (Entwicklungsteam, Kundenteams, Fachbereiche, technische Betriebsführung)
Ihr Profil:
• Mehrjährige Erfahrung in der Methodik Data Vault 2.0 (min. 2 Jahre), Modellierung und Implementierung von DataVault mit heterogenen Schnittstellen.
• Mehrjährige Erfahrung in der Konzeption und Umsetzung von Data Marts im DWH (min. 2 Jahre)
• Fortgeschrittene SQL-Kenntnisse (min. 2 Jahre), vorzugsweise Oracle 19
• Wünschenswert: Erfahrung mit Automatisierungstools im Data-Vault-Bereich, z.B. 2150 datavaultbuilder (vorzugsweise), AWS-Kenntnisse, GIT-Kenntnisse, Oracle APEX, Python, Apache Airflow