Beschreibung
- Sie unterstützen uns bei der Implementierung eines Core-Data Warehouse (Modelliert nach Data Vault 2.0), migrieren in dieses Daten und Strukturen aus dem bestehenden Data Warehouse sowie integrieren hierein zusätzliche Daten aus unterschiedlichen Quellsystemen- Sie unterstützen uns bei der Definition Entwicklungsstandards und -richtlinien im Data Vault Kontext
- Sie modellieren mit uns logisch und technisch den Raw- und Business-Vault
- Dabei arbeiten Sie eng mit internen und externen Kollegen/Innen zusammen
- Sie definieren neue und migrieren bestehende ETL-Ladejobs in Apache Airflow
- Sie erstellen selbstständig, auf Basis fachlicher Anforderungen, komplexe Business Transformationen mittels SQL
- Sie analysieren bestehende Transformationslogiken und übersetzen diese für Data Vault
- Sie erstellen Schulungsmaterial und sowie führen Schulungen im Data Vault Kontext durch
Soft-Skills:
- Teamfähigkeit
- Analytisches Denken
- Kommunikationsstark
- Erfahrung in der Energie- oder Telekommunikationsbranche
- Selbständiges und eigenverantwortliches Arbeiten
Fach-Skills:
- Mehrjährige Erfahrung in der Einführung und der praktischen Arbeit mit Data Vault 2.0
- Hervorragende gute SQL Fähigkeiten
- Umfangreiche Erfahrung in der Modellierung von Daten mit weiteren Modellierungsmethoden (3NF, Dimensionale Modelle)
- Gute Erfahrung mit spaltenorientierten, cloudbasierten Data Warehouse Technologien (optimaler Weise Snowflake oder Redshift)
- Kenntnisse und Erfahrung in Script¬sprachen (Python oder JavaScript)
- Nachweisbares Know-how im Umgang mit modernen Change-Management-Tools (z.B. Git)
- Erfahrung in der Erstellung von Schulungsunterlagen und Durchführung von Schulungen
- Praktische Erfahrungen in der Arbeit mit dbt (data build toll)/dbtVault und Apache Airflow