Beschreibung
Projektausschreibung: Aufbau eines Cloud-basierten Data Lakehouse
Wir suchen erfahrene IT-Freelancer (m/w/d) für ein langfristiges Großprojekt im Bereich Cloud-Datenarchitektur. Im Fokus steht der Aufbau eines modernen Data Lakehouse zur effizienten Verarbeitung und Modellierung großer Datenmengen.
Projektübersicht:
Projektthema: Aufbau eines Cloud-basierten Data Lakehouse
Einsatzort: Remote
Start: Nach Vereinbarung
Laufzeit: 6 Monate mit Verlängerungsoption
Auslastung: Vollzeit
Aufgaben:
Entwicklung von Datenpipelines und -prozessen mit Python
Modellierung und Aufbau einer skalierbaren Datenarchitektur mit Data Vault
Integration und Implementierung von Event Streams mit Apache Kafka
Dokumentation und Projektkommunikation über Confluence
Anforderungen:
Mehrjährige Projekterfahrung in Python Entwicklung, speziell im Data Engineering Umfeld
Fundierte Kenntnisse in Data Vault-Modellierung
Erfahrung in der Arbeit mit Apache Kafka (Setup, Event Processing)
Vertraut im Umgang mit Cloud-Plattformen (z.?B. AWS, Azure oder GCP)
Erfahrung mit agilen Methoden, gute Kommunikationsfähigkeiten und strukturierte Arbeitsweise
Nice to have: Kenntnisse in Infrastruktur-as-Code (z.?B. Terraform), CI/CD, Delta Lake
Wir bieten:
Anspruchsvolles Projektumfeld in einem zukunftsorientierten Bereich
100?% Remote-Arbeit
6 Monate Laufzeit mit Option auf Verlängerung
Freiraum für technologische Gestaltung und Innovation
Sie sind offen für neue Herausforderungen in einem agilen und engagierten Team? Dann senden Sie mir Ihren CV als Word-Dokument an .
Wir suchen erfahrene IT-Freelancer (m/w/d) für ein langfristiges Großprojekt im Bereich Cloud-Datenarchitektur. Im Fokus steht der Aufbau eines modernen Data Lakehouse zur effizienten Verarbeitung und Modellierung großer Datenmengen.
Projektübersicht:
Projektthema: Aufbau eines Cloud-basierten Data Lakehouse
Einsatzort: Remote
Start: Nach Vereinbarung
Laufzeit: 6 Monate mit Verlängerungsoption
Auslastung: Vollzeit
Aufgaben:
Entwicklung von Datenpipelines und -prozessen mit Python
Modellierung und Aufbau einer skalierbaren Datenarchitektur mit Data Vault
Integration und Implementierung von Event Streams mit Apache Kafka
Dokumentation und Projektkommunikation über Confluence
Anforderungen:
Mehrjährige Projekterfahrung in Python Entwicklung, speziell im Data Engineering Umfeld
Fundierte Kenntnisse in Data Vault-Modellierung
Erfahrung in der Arbeit mit Apache Kafka (Setup, Event Processing)
Vertraut im Umgang mit Cloud-Plattformen (z.?B. AWS, Azure oder GCP)
Erfahrung mit agilen Methoden, gute Kommunikationsfähigkeiten und strukturierte Arbeitsweise
Nice to have: Kenntnisse in Infrastruktur-as-Code (z.?B. Terraform), CI/CD, Delta Lake
Wir bieten:
Anspruchsvolles Projektumfeld in einem zukunftsorientierten Bereich
100?% Remote-Arbeit
6 Monate Laufzeit mit Option auf Verlängerung
Freiraum für technologische Gestaltung und Innovation
Sie sind offen für neue Herausforderungen in einem agilen und engagierten Team? Dann senden Sie mir Ihren CV als Word-Dokument an .