Data Engineer (m/w/d) ab September

Nordrhein-Westfalen, Köln  ‐ Vor Ort

Schlagworte

Künstliche Intelligenz Java Airflow Bigquery Datenbanken ETL Python Openshift SQL Cloud Platform Snowflake Apache Spark Kubernetes Apache Kafka Amazon Web Services Microsoft Azure Dateninfrastruktur Datenmodell Datenqualität Datenstruktur Apache Hadoop Skalierbarkeit Postgresql Mongodb Mysql Nosql Leistungssteigerung Datenverarbeitung Konsolidierung Machine Learning Operations

Beschreibung

Beschreibung
Für ein zukunftsorientiertes Datenprojekt bei meinem Endkunden suche ich ab sofort einen erfahrenen Data Engineer (m/w/d). Im Fokus steht der Aufbau und die Optimierung moderner Dateninfrastrukturen mit besonderem Bezug zu KI-Anwendungen – einschließlich Vektordatenbanken, Cloud-Plattformen und skalierbaren Pipelines. Sie spielen eine Schlüsselrolle in der zuverlässigen Bereitstellung, Integration und Weiterentwicklung von Datenstrukturen für analytische und KI-getriebene Services.

Ihre Aufgaben:
• Aufbau, Wartung und Weiterentwicklung skalierbarer Dateninfrastrukturen (inkl. KI-relevanter Komponenten wie Vektordatenbanken)
• Entwicklung, Durchführung und Optimierung von ETL-Prozessen für die Datenaufbereitung
• Integration und Konsolidierung strukturierter und unstrukturierter Datenquellen
• Sicherstellung der Datenqualität sowie Einrichtung von Monitoring-Mechanismen
• Performance-Optimierung von Datenbanken und Datenpipelines für produktive KI-Anwendungen
• Enge Zusammenarbeit mit Data Scientists und MLOps-Teams zur nahtlosen Übergabe der Daten

Das bringen Sie mit:
• Mindestens 3 Jahre Berufserfahrung als Data Engineer (alternativ abgeschlossene Ausbildung mit 5 Jahren Erfahrung in Dateninfrastruktur)
• Fundierte Kenntnisse in SQL, Python oder Java
• Erfahrung im Umgang mit relationalen und NoSQL-Datenbanken (z.?B. MySQL, PostgreSQL, MongoDB)
• Projekterfahrung mit Datenmodellierung, ETL-Prozessen und modernen Architekturansätzen
• Sicherer Umgang mit Cloud-Plattformen (z.?B. AWS, Azure, GCP) und deren Datenservices
• Erfahrung in Container-Orchestrierung (z.?B. Red Hat OpenShift, Kubernetes)
• Kenntnisse in Tools und Frameworks wie Apache Airflow, Spark, Kafka, Hadoop, dbt, Snowflake, BigQuery oder Redshift
• Sprachkenntnisse: Deutsch mind. C1, Englisch mind. C1

Skills: Python | SQL | Java | Apache Airflow | Spark | Kafka | dbt | Snowflake | BigQuery | Redshift | Kubernetes | OpenShift

Projektsprache: Deutsch

Sie möchten moderne Datenplattformen aktiv gestalten und die Basis für KI-Lösungen von morgen mitentwickeln? Dann freue ich mich auf Ihren aktuellen Lebenslauf (bitte als Word-Dokument) an:


Wir sind ein spezialisierter Personalvermittler. Alle Fachbegriffe sind neutral zu verstehen – wir freuen uns über Bewerbungen unabhängig von Alter, Geschlecht oder Herkunft.
Start
09.2025
Auslastung
100% (5 Tage pro Woche)
Dauer
24 Monate
(Verlängerung möglich)
Von
Amoria Bond GmbH
Eingestellt
26.06.2025
Ansprechpartner:
Kajetan Reichel
Projekt-ID:
2892169
Branche
IT
Vertragsart
Freiberuflich
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren