Beschreibung
Data Scientist
• Python - Experte
• SQL - Experte
• Reisebereitschaft - Experte
• Kommunikationsfähigkeit - Experte
• Azure Cloud - Erfahren
• CI/CD-Pipeline-Erfahrung (Azure / GitHub) - Erfahren
• Data Bricks - Erfahren
• Machine Learning - Kompetent
• API-Erstellung – Kompetent
Aufgabenbeschreibung
• Pflege und Weiterentwicklung unserer Pricing-Software-Frameworks in Python.
• Deployment und Monitoring der Software in der Azure Cloud (u.a. Azure ML, Databricks, DataFactory, SQL).
• Operative Preis- und Bonusrechnung.
• Planung und Aufbau von Machine-Learning-Systemen, beispielsweise zur Prognose von Vertragsabschlüssen oder zur Bewertung von Handlungsoptionen.
• Aufbau von Schnittstellen zur Unterstützung von Preisen (APIs).
• Sicherstellung der Einhaltung von Datenschutzrichtlinien.
• Darstellung von Analyseergebnissen (z.B. in Berichten), Kommunikation an die Fachbereiche und Ableitung sowie Bewertung weiterer Handlungsoptionen.
Anforderungen
• Erfolgreicher Hochschulabschluss im Bereich Data Science, Mathematik / Statistik, Informatik oder einer vergleichbaren Qualifikation mit starkem Fokus auf Datenmodellierung.
• 2-5 Jahre Erfahrung als Data Scientist, idealerweise im Pricing Bereich, Energiewirtschaft oder Versicherungsumfeld.
• Sehr gute Kommunikationsfähigkeiten, Entscheidungsfreudigkeit und Proaktivität.
• Erfahrung in der Erstellung und dem Monitoring (u.a.) von Modellen, Pipelines und performanten Anwendungen auf Basis Python (z.B., Pandas/Numpy/Scikit-learn/Matplotlib).
• Ausgeprägte Software- und Programmierkenntnisse im Bereich Statistik, Datenanalyse und Modellierung mit Python/R/Spark SQL.
• Kenntnisse in objektorientierter Softwareentwicklung vom Vorteil.
• Erfahrung in der Anwendung gängiger Softwareentwicklungstools insbesondere in der Versionsverwaltung mit GitHub sowie dem Deployment über CI/CD-Pipelines.
• Erfahrungen in den Bereichen Machine Learning und Predictive Analytics.
• Erfahrungen im Aufbau von API-Schnittstellen mit Flask RESTful oder vergleichbaren Frameworks sind wünschenswert aber keine Voraussetzung (z.B., Power BI).
• Gute Kenntnisse im Erstellen aussagekräftiger Berichte für Entscheidungsträger*innen sowie Erfahrung bei der Erstellung von PowerPoint-Präsentationen zur Entscheidungsfindung sind wünschenswert aber keine Voraussetzung.
Rahmenbedingungen
Vertragsart: Arbeitnehmerüberlassung
Einsatzort: Köln, Stuttgart oder Karlsruhe
Remote: bis zu 100 % möglich
Wochenstunden: 36h
Start: 01.08.2025
Ende:31.08.2026 mit Option auf Übernahme
• Python - Experte
• SQL - Experte
• Reisebereitschaft - Experte
• Kommunikationsfähigkeit - Experte
• Azure Cloud - Erfahren
• CI/CD-Pipeline-Erfahrung (Azure / GitHub) - Erfahren
• Data Bricks - Erfahren
• Machine Learning - Kompetent
• API-Erstellung – Kompetent
Aufgabenbeschreibung
• Pflege und Weiterentwicklung unserer Pricing-Software-Frameworks in Python.
• Deployment und Monitoring der Software in der Azure Cloud (u.a. Azure ML, Databricks, DataFactory, SQL).
• Operative Preis- und Bonusrechnung.
• Planung und Aufbau von Machine-Learning-Systemen, beispielsweise zur Prognose von Vertragsabschlüssen oder zur Bewertung von Handlungsoptionen.
• Aufbau von Schnittstellen zur Unterstützung von Preisen (APIs).
• Sicherstellung der Einhaltung von Datenschutzrichtlinien.
• Darstellung von Analyseergebnissen (z.B. in Berichten), Kommunikation an die Fachbereiche und Ableitung sowie Bewertung weiterer Handlungsoptionen.
Anforderungen
• Erfolgreicher Hochschulabschluss im Bereich Data Science, Mathematik / Statistik, Informatik oder einer vergleichbaren Qualifikation mit starkem Fokus auf Datenmodellierung.
• 2-5 Jahre Erfahrung als Data Scientist, idealerweise im Pricing Bereich, Energiewirtschaft oder Versicherungsumfeld.
• Sehr gute Kommunikationsfähigkeiten, Entscheidungsfreudigkeit und Proaktivität.
• Erfahrung in der Erstellung und dem Monitoring (u.a.) von Modellen, Pipelines und performanten Anwendungen auf Basis Python (z.B., Pandas/Numpy/Scikit-learn/Matplotlib).
• Ausgeprägte Software- und Programmierkenntnisse im Bereich Statistik, Datenanalyse und Modellierung mit Python/R/Spark SQL.
• Kenntnisse in objektorientierter Softwareentwicklung vom Vorteil.
• Erfahrung in der Anwendung gängiger Softwareentwicklungstools insbesondere in der Versionsverwaltung mit GitHub sowie dem Deployment über CI/CD-Pipelines.
• Erfahrungen in den Bereichen Machine Learning und Predictive Analytics.
• Erfahrungen im Aufbau von API-Schnittstellen mit Flask RESTful oder vergleichbaren Frameworks sind wünschenswert aber keine Voraussetzung (z.B., Power BI).
• Gute Kenntnisse im Erstellen aussagekräftiger Berichte für Entscheidungsträger*innen sowie Erfahrung bei der Erstellung von PowerPoint-Präsentationen zur Entscheidungsfindung sind wünschenswert aber keine Voraussetzung.
Rahmenbedingungen
Vertragsart: Arbeitnehmerüberlassung
Einsatzort: Köln, Stuttgart oder Karlsruhe
Remote: bis zu 100 % möglich
Wochenstunden: 36h
Start: 01.08.2025
Ende:31.08.2026 mit Option auf Übernahme