Beschreibung
Start: asapLaufzeit: 3 Monate mit Verlängerung
Auslastung: 100%
Standort: Berlin & Remote
Remote-Anteil: 50 - 75% nach Absprache
Sprache: Englisch
Aufgaben:
• Teams bei der Entwicklung datenintensiver Anwendungen anleiten und bewährte Praktiken für Datenarchitektur in einer Cloud-Native-Umgebung vermitteln. Wichtige Fragen, die zu beantworten sind, umfassen:
Wie kann man Daten innerhalb einer Microservices-Architektur dezentralisieren und modellieren, basierend auf einer Analyse der Geschäftsdomain? (z. B.: Datenbank pro Service-Muster, transiente und persistente Daten innerhalb begrenzter Kontexte)
Wie wählt man geeignete Datenspeicherlösungen basierend auf den Geschäftsanforderungen aus? (z. B.: relationale Datenbanken, NoSQL, Zeitreihen-Datenbanken, Delta Lake, Caches usw.)
Wie kann man effektiv Daten zwischen Anwendungsdiensten im großen Maßstab teilen? (z. B.: Messaging mit Kafka)
Prinzipien von Data Mesh, Datenprodukten, Datenqualität und Daten-SLOs
• Demonstration der oben genannten Konzepte mit funktionierendem Code unter Verwendung einer Referenz-Codebasis
• Zusammenarbeit mit dem EDP Data Team, um sicherzustellen, dass die angebotenen Dienste genau in der Referenzarchitekturdokumentation und der Codebasis dargestellt werden
• Bereitstellung umsetzbarer Kundenanforderungen für das EDP Data Team
• Empfehlungen für Strategien zur Verhinderung von Datenverlust in einer hybriden, multi-data-center Umgebung
Must-have-Skills:
• Erfahrung als Cloud-Native-Datenarchitekt mit Nachweisen, dass die architektonischen Daten-Workloads im großen Maßstab betriebsbereit sind
• Tiefes Verständnis von Datenarchitekturen (einschließlich Datenqualität und Daten-SLOs) im Kontext von Cloud-Native und verteilten Umgebungen und die Fähigkeit, Datenkonzepte verschiedenen Zielgruppen zu vermitteln
• Nachgewiesene Erfahrung bei der Unterstützung von Entwicklungsteams bei der Navigation durch das CAP-Theorem mit Abwägungen bei der Auswahl von Datenspeichertechnologien
• Praktische Erfahrung mit den folgenden Datentechnologien:
Relationale Datenbanken (z. B.: PostgreSQL)
NoSQL-Datenbanken (z. B.: MongoDB, Cassandra)
Zeitreihen-Datenbanken (z. B.: TimescaleDB, InfluxDB)
Graphdatenbanken (z. B.: Neo4j
Data Warehouse- und Data Lake-Architekturen
Messaging-/Daten-Streaming-Systeme (Apache Kafka)
Datenverarbeitung und Workflows (z. B.: Spark, Dagster, Apache Airflow usw.)
• Erfahrung im Kubernetes-Ökosystem zum Erstellen, Bereitstellen und Debuggen von Container-Workloads
• CI/CD-Pipelines und verwandte Tools zur Automatisierung von Code-Erstellung, Tests und Bereitstellung
• Entwicklung in mindestens einer Programmiersprache (z. B.: Java, Python, Golang)
• Fundierte Kenntnisse der Datensicherheit und die Fähigkeit, auf architektonischer Ebene die Sicherheitsbest Practices zu spezifizieren, die beim Arbeiten mit Daten integriert werden müssen (Verschlüsselung, Zugangskontrolle, Datenklassifizierung und Compliance usw.)
• Nachgewiesene Erfahrung in der Erläuterung der Reife, die erforderlich ist, um Cloud-Native-Datentechnologien zu nutzen – nicht nur auf der IT-Seite, sondern insbesondere auf der Geschäftsebene eines Unternehmens
• Fließendes Englisch in Wort und Schrift (mindestens B2)
Anforderungen:
Die Person muss auf Senior-Level im Bereich Cloud-Native-Datenarchitektur sein und nachweisliche Fähigkeiten und Erfahrungen in diesem Bereich haben. Wir suchen:
• Hervorragende mündliche und schriftliche Kommunikationsfähigkeiten, einschließlich der Fähigkeit, komplexe technische Konzepte verständlich zu vermitteln
• Fähigkeit zur Zusammenarbeit mit erfahrenen Plattformarchitekten, um die aktuellen und zukünftigen Fähigkeiten von EDP in eine Referenzarchitektur für Anwendungen zu übersetzen, die auf EDP laufen
• Kooperative und co-kreative Denkweise mit Erfahrung in der engen Zusammenarbeit mit funktionsübergreifenden Teams
• Starke analytische und problemlösende Fähigkeiten und die Fähigkeit, Entscheidungen zu treffen, die von der Position einer großen Anzahl von Stakeholdern informiert sind.