Beschreibung
Für unseren Kunden sind wir auf der Suche nach 2 x Data Engineers (m/w/d).Neben der Erstellung und Pflege einer optimalen Pipeline-Architektur gehören zu den typischen Aufgaben und Verantwortlichkeiten:
- Erstellung von Konzepten, Design von Schnittstellen, Datenintegration und ETL
- Implementierung von Schnittstellen-, Datenintegrations- und ETL-Prozessen in verschiedenen D&A-Technologien in der Public Cloud
(mit Data Bricks, Data Factory, etc.), wie z.B.
- Streaming (z.B. Kafka Topics), DB-Zugriffe und oder Files, Aneignung komplexer Datentypen (XML, JSON...), Automatisieren der
Datenverarbeitung
- Erstellung von Konzepten und Implementierung für Datenintegration / ETL / Datenhaltung im Self-Service inkl. Sandbox-Konzepte
- Implementierung eines automatisierten Monitorings aller Schnittstellen und ETL-Prozesse inkl. Alerting
- Implementierung von robusten, restartfähigen und self-healing Schnittstellen- und ETL-Prozessen
- Teilnahme an Calls und Erfüllung von Terminen (Daily, Backlog Refinement, Sprint Planning, Sprint Review, Retrospektive)
Gewünschte Skills (Must Haves):
- Sehr gute Azure Databricks Kenntnisse (müssen aus dem Profil hervorgehen)
- Sehr gute Kubernetes Kenntnisse
- Grafana Kenntnisse
Start. asap oder nach Absprache
Laufzeit: 12 Monate mit Option auf Verlängerung
Auslastung: Vollzeit
Einsatzort: 100% Remote
Sprachen: Deutsch wäre gut aber Englisch reicht auch
Haben sie Interesse an unserem Projekt? Dann freue ich mich auf ihre Kontaktaufnahme unter Vielen Dank.
Schönen Gruß
Silvia Griner