Beschreibung
Für unseren Kunden suchen wir ab sofort einen Data Engineer bzw. Data Integrator (w/m/d), der bei der Entwicklung und Umsetzung von ETL-Strecken und Data-Pipelines im Umfeld Analytics Enablement sowie der Integration von Daten (in die Cloud) unterstützt. Die einzelnen Teilprojekte sind im Energiehandelskontext angesiedelt. Der Einsatz kann in Gänze per Homeoffice umgesetzt werden. Ein Start ist zwischen 01.06.2025 und spätestens 01.09.2025 gewünscht.
Fundierte Software Engineering Skills (Python Stack), Datenbank Know-how und Cloud Expertise stehen im Fokus.
Bitte beachten Sie, dass kundenseitig zumindest alle must-have-skills erfüllt sein müssen. Bitte geben Sie einen Homeoffice-Tagessatz auf Basis 8h/Tag an sowie Ihre Verfügbarkeit (ab wann und in welchem Umfang).
Ihre Aufgaben
-Konkret geht es um die Integration und Überführung von Datascience-Modellen in den Betrieb sowie den Aufbau von Datapipelines und ETL-Strecken und darüber hinaus die Datenintegration sowie die Softwareentwicklung mit Python auf Basis von Datascience- bzw. mathematischen Modellen.
Anforderungen
must have:
-Erfahrung mit Python inkl. Libraries (z.B. Pandy, Numpy, Scipy, Flask o. ä.)
-Erfahrungen im Umgang und Verwaltung von Zeitreihen (z.B. Preiskurven, Wetterdaten, Prognosedaten,…), also alles in der Form Timestamp/Value
-Erfahrung AWS
-Erfahrung Datenintegration
-Erfahrung crossfunktionale Rollen/Teams/Abteilungen/Aufgaben
-Kenntnisse Iter-Methode/Iteratoren im Python-Umfeld
-Kenntnisse serverless-computing
-Erfahrung Data Engineering
-Erfahrung Visualisierung, Scheduling und Automatisierung von Prozessen
-Erfahrung in der Entwicklung und Nutzung von gr. Datenbanken
-Erfahrung Testing (Pytest o. ä.) und allg. hohe Testabdeckung
-Allg. Kenntnisse relationale Datenbanken und im Aufbau von rel. Datenbanken
-Kenntnisse asynchrone und parallele Programmierung
nice to have:
-Vorerfahrung Energiesektor
-Snowflake
-SonarQube
-Docker/Kubernetes
-Frontenderfahrung HTML/CSS und GUI-Frameworks
Fundierte Software Engineering Skills (Python Stack), Datenbank Know-how und Cloud Expertise stehen im Fokus.
Bitte beachten Sie, dass kundenseitig zumindest alle must-have-skills erfüllt sein müssen. Bitte geben Sie einen Homeoffice-Tagessatz auf Basis 8h/Tag an sowie Ihre Verfügbarkeit (ab wann und in welchem Umfang).
Ihre Aufgaben
-Konkret geht es um die Integration und Überführung von Datascience-Modellen in den Betrieb sowie den Aufbau von Datapipelines und ETL-Strecken und darüber hinaus die Datenintegration sowie die Softwareentwicklung mit Python auf Basis von Datascience- bzw. mathematischen Modellen.
Anforderungen
must have:
-Erfahrung mit Python inkl. Libraries (z.B. Pandy, Numpy, Scipy, Flask o. ä.)
-Erfahrungen im Umgang und Verwaltung von Zeitreihen (z.B. Preiskurven, Wetterdaten, Prognosedaten,…), also alles in der Form Timestamp/Value
-Erfahrung AWS
-Erfahrung Datenintegration
-Erfahrung crossfunktionale Rollen/Teams/Abteilungen/Aufgaben
-Kenntnisse Iter-Methode/Iteratoren im Python-Umfeld
-Kenntnisse serverless-computing
-Erfahrung Data Engineering
-Erfahrung Visualisierung, Scheduling und Automatisierung von Prozessen
-Erfahrung in der Entwicklung und Nutzung von gr. Datenbanken
-Erfahrung Testing (Pytest o. ä.) und allg. hohe Testabdeckung
-Allg. Kenntnisse relationale Datenbanken und im Aufbau von rel. Datenbanken
-Kenntnisse asynchrone und parallele Programmierung
nice to have:
-Vorerfahrung Energiesektor
-Snowflake
-SonarQube
-Docker/Kubernetes
-Frontenderfahrung HTML/CSS und GUI-Frameworks