Data Engineer (m/w/d) Spark, Kafka, AirFlow - Remote / Native English speaker wellcome

München, Bayern  ‐ Remote
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Start: asap
3 Monate Vollzeit, mit Option auf Verlängerung
Remote: zu 100% möglich

Kurze Projektbeschreibung:
Die Zentralbanken werden in den nächsten fünf Jahren eine sogenannte Central Bank Digital Currency (CBDC) einführen. So entsteht ein ganzes Ökosystem an Produkten und Dienstleistungen, das perfekt zum Produktportfolio vom Kunden passt.
Dafür hat der Kunde als unabhängiges Start-up innerhalb der Mutter-Konzern ein Team aufgebaut, das eine klare Mission für Wachstum und den Aufbau eines substanziellen Produktgeschäfts hat.
Für die Entwicklung von CBDC-Produkten und -Lösungen gemeinsam mit Zentralbanken suchen wir einen Data Engineer, der dem Kunden auf dem Weg zur Gestaltung der Payment-Landschaft der Zukunft begleitet.

Aufgaben:
- Design und die Entwicklung von technischen Komponenten
- Implementierung von Datenpipelines
- technisches Scouting durch Prototyping und Analyse von Werkzeugen
- Produktentwicklung und Projektergänzung zum vorhandenen D+D Data Architekten

Must-Haves Skills:
- Deutsch und Englisch in Wort und Schrift. Native English speaker wellcome! Die Geschäftssprache ist Englisch.
- Erfahrung mit Data-Engineering-Tools: Spark, Kafka, AirFlow
- SQL-Kenntnisse

Profil:
- Umfangreiche praktische technische Erfahrung mit großen Datensystemen
- Fähigkeit/Affinität, in sehr herausfordernden Umgebungen mit vielen noch zu lösenden Problemen zu arbeiten
- Erfahrung mit relevanten Technologien in einigen der folgenden Bereiche: (Beispieltechnologien sind rein indikativ und keine konkreten Anforderungen)
- Datenverarbeitung im großen Maßstab (Stream und Batch). Beispiel: Apache Spark
- Moderne Speicherlösungen für Datenanalyseanwendungen und Designstrategien. Beispiel: traditionelle relationale Datenbanklösungen wie PostgreSQL, Datenbanken für spezielle Zwecke wie Apache Druid
- Anwendungen zur Datenaufnahme. Beispiel: Apache Kafka
- Erfahrung im Aufbau von Datenpipelines
- Wünschenswert Erfahrung mit PrestoSQL/PrestoDB/Trino (alle 3 sind gleich) oder Erfahrung in einer verteilten Abfrageumgebung (On-the-Fly-Joins)
- Erfahrung mit Streaming-Daten
- Erfahrungen mit Datenbank-Setup

Wenn Sie sich angesprochen fühlen, senden Sie uns bitte Ihre aktuellen Unterlagen zu. Wir freuen uns auf Ihre Bewerbung!

Beste Grüße
Ximin Yan
Prime Force Frankfurt GmbH & Co. KG
E-Mail:
Tel.:
Start
ab sofort
Dauer
3 Monate
(Verlängerung möglich)
Von
Prime Force Group - Niederlassung Frankfurt
Eingestellt
15.07.2021
Ansprechpartner:
Ximin Yan
Projekt-ID:
2160382
Vertragsart
Freiberuflich
Einsatzart
100 % Remote
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren