Profilbild von Anonymes Profil, Data Scientist, Data Engineer, Business Intelligence, Data Warehousing, Big Data
nicht verfügbar bis 30.06.2024

Letztes Update: 01.04.2024

Data Scientist, Data Engineer, Business Intelligence, Data Warehousing, Big Data

Abschluss: Dipl.-Mathematiker
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher) | französisch (Grundkenntnisse)

Dateianlagen

TMI_280223.pdf
TMI_280223.pdf

Skills

Kompetenter Senior Data Scientist mit ausgezeichneten kommunikativen, zwischenmenschlichen und technischen Skills. Über 20 Jahre Erfahrung in der Transformation von Daten zu aussagekräftigen Informationen im industriellen Großumfeld.

Verfügbar für eine freiberufliche Position in Europa, vor Ort und/oder remote. Der Preis ist individuell und richtet sich nach den Anforderungen.

Azure Synapse, Azure Data Factory, RDBMS, Oracle, PostgreSQL, SQL, PL/SQL, Python, Pandas, Tesnorflow, Keras, SciKit-Learn, Dash, NoSQL, Neo4J, MongoDB, Big Data, Apache Spark, Cloud platforms, Azure, AWS, Frontends, Power BI, Jupyter Notebook, cloud, web-based, APIs, feature engineering, machine learning, Data Science, DWH, Data Warehouse, data protection, ETL, datamart, Business Intelligence

Projekthistorie

05/2022 - bis jetzt
Data Scientist, Data Engineer, Architect
Internationales Logistikunternehmen (Transport und Logistik, 250-500 Mitarbeiter)

Migration und wesentliche Erweiterung der bestehenden unternehmensweiten Reportinglösung in eine cloudbasierte Analyseplattform. 

Die cloudbasierte Analyseplattform enthält Module für die Aufnahme von Daten, Deltaberechnung sowie Komponenten für das Datenqualitäts- und Metadatenmanagement, um den verschiedenen Verbrauchern einen Single Point of Truth zu bieten, auf dem sie ihre geschäftsspezifischen Datenanalysen aufbauen können.
  • High-Level-Design und Architektur des Gesamtsystems
  • Konzeptionelle Orchestrierung der Modulklassen
  • Definition von internen und externen Schnittstellen
  • Implementierung der Module
  • Entwurf und Implementierung eines zentralen Repositories
  • Implementierung der Dienstkapselung und -orchestrierung
  • Auswahl und Aufbereitung von Testdatensätzen
  • Iterationsmanagement: Definition, Durchführung, Auswertung
  • Definition und Bewertung von funktionalen/nicht-funktionalen Anforderungen
  • Entwicklung eines aus den Anforderungen abgeleiteten Fachkonzepts
  • Erstellung von Datenpipelines für strukturierte Daten (ETL)
  • Konzeption und Erstellung von Datenmodellen
  • Erstellung von Frontends für verschiedene Stakeholder
  • Prozessautomatisierung und CI/CD
Techstack: Azure Synapse, Azure Blob Storage, Azure SQL Server, MS PowerBI, Azure Key Vault, MariaDB, SQL, python, pandas, MS Visual Studio Code, Data Vault 2.0, Jira, Confluence, GIT, Azure DevOps

08/2021 - 04/2022
Data Scientist | Data Engineer | Architect
Internationaler Versicherungskonzern (Versicherungen, >10.000 Mitarbeiter)

Architektur, Design und Implementierung einer global organisierten Datenplattform zur Sammlung und Aufbereitung von Daten aus den Niederlassungen in verschiedenen Ländern. 

Die cloudbasierte Datenplattform enthält Module für die Aufnahme, Deltaberechnung sowie Komponenten für das Datenqualitäts- und Metadatenmanagement, um den verschiedenen Verbrauchern einen Single Point of Truth zu bieten, auf dem sie ihre geschäftsspezifischen Datenanalysen aufbauen können.

•    High-Level-Design und Architektur des Gesamtsystems
•    Konzeptionelle Orchestrierung der Modulklassen
•    Definition von internen und externen Schnittstellen
•    Implementierung der Module
•    Entwurf und Implementierung eines zentralen Repositories
•    Implementierung der Dienstkapselung und -orchestrierung
•    Auswahl und Aufbereitung von Testdatensätzen
•    Iterationsmanagement: Definition, Durchführung, Auswertung
•    Definition und Bewertung von funktionalen/nicht-funktionalen Anforderungen
•    Entwicklung eines aus den Anforderungen abgeleiteten Fachkonzepts
•    Erstellung von Datenpipelines für strukturierte Daten (ETL)
•    Konzeption und Erstellung von Datenmodellen
•    Erstellung von Frontends für verschiedene Stakeholder
•    Prozessautomatisierung und CI/CD

Techstack: Azure Data Factory, Azure Blob Storage, Azure Database for PostgreSQL, Azure Databricks Service, MS PowerBI, SQL, python, pandas, MS Visual Studio Code, Data Vault 2.0, Jira, Confluence, GIT, Azure DevOps
 

03/2021 - 08/2021
Data Scientist | Data Engineer | AI specialist
Unternehmen für Digitale Transformation (Industrie und Maschinenbau, 50-250 Mitarbeiter)

Erfolgreiche Durchführung eines Proof-Of-Concept für den Einsatz von künstlicher Intelligenz im Condition Monitoring und Predictive Maintenance für IOT-basierte Geräte, hauptsächlich stationäre und mobile Großmaschinen.

•    Definition und Bewertung von funktionalen/nicht-funktionalen Anforderungen
•    Erarbeitung technische Konzeption abgeleitet aus den Anforderungen
•    ETL: Erstellung von Data Pipelines für strukturierte Daten
•    Konzeption und Erstellung von Datenmodellen
•    Datenexploration und -analyse
•    Datenaufbereitung und Feature Engineering
•    Erstellung von Komponenten zur Sicherung der Datenqualität 
•    Erstellung, Auswertung und Integration von ML-Modellen
•    Erstellung von Frontends für verschiedene Stakeholder
•    Prozessautomatisierung und CI/CD
•    Rapid Prototyping
•    Kommunikation und Einbindung aller Beteiligten
•    Präsentation von Zwischenergebnissen
•    Gesamtsystemarchitektur

Techstack: python, pandas, sklearn, tensorflow, keras, sktime, jupyter, tsfresh, MS Visual Studio Code, prophet, matplotlib, dash, Azure Blob Storage, Azure Virtual Machines, Azure Machine Learning, Azure SQL Database
 


10/2018 - 07/2021
Professor (Gastprofessur)
Universität (privat) (Sonstiges, 500-1000 Mitarbeiter)

Nebenberufliche Lehrtätigkeit im Studiengang Master of Applied Data Science und Sustainability and Ethics in Digital Transformation an sechs vollen Tagen im Semester mit den Themen:

•    Big Data 
•    Datenbanken
•    KI / maschinelles Lernen
•    Zukunftstechnologien und Gesellschaft
 

10/2019 - 03/2021
Data Scientist | Data Engineer | Gesamtarchitekt
Startup Digital Platform (Internet und Informationstechnologie, 10-50 Mitarbeiter)

Schaffung einer cloudbasierten und KI-gesteuerten digitalen Plattform zur Ausrichtung einer bestimmten Branche auf die Sustainable Development Goals (SDGs) der UN als Speerspitze für Unternehmen der nächsten Generation.

•    Definition und Bewertung von funktionalen/nicht-funktionalen Anforderungen
•    Erarbeitung technische Konzeption abgeleitet aus den Anforderungen
•    ETL: Erstellung von Data Pipelines für strukturierte und unstrukturierte Daten
•    Datenerfassung aus webbasierten Quellen und APIs von Drittanbietern
•    Konzeption und Erstellung von Datenmodellen
•    Datenexploration und -analyse
•    Datenaufbereitung und Feature Engineering
•    Erstellung, Auswertung und Integration von ML-Modellen
•    Erstellung von Frontends für verschiedene Stakeholder
•    Prozessautomatisierung und CI/CD
•    Rapid Prototyping
•    Betrieb und Wartung, Datenqualitätssicherung, Codequalitätssicherung
•    Kommunikation und Einbindung aller Beteiligten
•    Präsentation von Zwischenergebnissen
•    Gesamtsystemarchitektur
•    Planung, Budgetierung, Teamlead

Techstack: SQL, python, pandas, sklearn, tensorflow, keras, sktime, jupyter, atom, MS Visual Studio Code, Git/GitHub, DevOps, beautifulsoup, selenium, prophet, bert, spacy, folium, rasterio, gdal, matplotlib, dash, pillow, geopandas, Azure Databricks, Azure EH4Kafka, Azure HDInsight, Azure Blob Storage, Azure Virtual Machines, Azure API Apps, Azure Functions, Azure Database for PostgreSQL, Azure Data Lake, Azure Synapse, Azure Data Factory, Azure Machine Learning, Azure logic Apps, Power BI
 

10/2017 - 09/2019
Data Scientist | Data Engineer | Architect
Startup AI Service Platform (Internet und Informationstechnologie, < 10 Mitarbeiter)

Entwicklung einer Plattform für den Einsatz von microservice-basierten Machine-Learning-Modellen in operativen IT-Umgebungen und den darin integrierten Geschäftsprozessen.

•    High-Level-Design des Gesamtsystems
•    Konzeptionelle Orchestrierung der Modulklassen
•    Definition von internen und externen Schnittstellen
•    Implementierung von Modulen
•    Entwurf und Implementierung eines zentralen Repositorys
•    Implementierung von Dienstkapselung und -orchestrierung
•    Auswahl und Vorbereitung von Testdatensätzen
•    Iterationsmanagement: Definition, Durchführung, Auswertung
•    Definition und Bewertung von funktionalen/nicht-funktionalen Anforderungen
•    Erarbeitung technische Konzeption abgeleitet aus den Anforderungen
•    Erstellung von Data Pipelines für strukturierte und unstrukturierte Daten (ETL)
•    Datenerfassung aus webbasierten Quellen und APIs von Drittanbietern
•    Konzeption und Erstellung von Datenmodellen
•    Datenexploration und -analyse
•    Datenaufbereitung und Feature Engineering
•    Erstellung, Auswertung und Integration von ML-Modellen
•    Erstellung von Frontends für verschiedene Stakeholder
•    Prozessautomatisierung und CI/CD
•    Rapid Prototyping
•    Betrieb und Wartung, Datenqualitätssicherung, Codequalitätssicherung

Techstack: SQL, python, pandas, sklearn, sktime, jupyter, atom, MS Visual Studio Code, Git/GitHub, DevOps, beautifulsoup, selenium, prophet, bert, spacy, matplotlib, dash, pillow, geopandas, Azure Databricks, Azure HDInsight, Azure Blob Storage, Azure Virtual Machines, Azure API Apps, Azure Functions, Azure Data Lake, Azure Synapse, Azure EH4Kafka, Azure Data Factory, Azure Machine Learning, Azure logic Apps, Power BI, Amazon EMR,  Amazon Redshift, Amazon S3, Amazon EC2, Amazon API Gateway, Amazon Lambda, Amazon Sagemaker
 

04/2011 - 10/2017
Data Scientist | Data Engineer | Project Manager | Team Leader | Architect
Beratungsfirma Law Enforcement, Internal Investigations, Compliance (Sonstiges, 10-50 Mitarbeiter)

Analyse von strukturierten und unstrukturierten Daten mit modernen Ansätzen aus dem Bereich Big Data und KI

•    Datenbereinigung / Harmonisierung / Integration / Bereitstellung (ETL)
•    Analyse von Daten und Erstellung von Modellen zur Analyse von Datenkorrelationen
•    Darstellung von Datenkorrelationen und anderen Ergebnissen
•    Definition und Bewertung von funktionalen/nicht-funktionalen Anforderungen
•    Erarbeitung technische Konzeption abgeleitet aus den Anforderungen
•    Erstellung von Data Pipelines für strukturierte und unstrukturierte Daten
•    Datenerfassung aus webbasierten Quellen und APIs von Drittanbietern
•    Konzeption und Erstellung von Datenmodellen
•    Datenexploration und -analyse
•    Datenaufbereitung und Feature Engineering
•    Erstellung, Auswertung und Integration von ML-Modellen
•    Entwurf und Entwicklung eines Analyseframeworks
•    Management- und Projektleitungstätigkeiten

Techstack: SQL, PL/SQL, python, pandas, sklearn, jupyter, atom, spacy, folium, rasterio, gdal, matplotlib, dash, pillow, geopandas, PyTorch, Tensorflow, Oracle RDBMS, MongoDB, Neo4j, PostgreSQL, word2vec, HDFS, Hadoop ecosystem, Apache Spark, Hive
 

08/2010 - 04/2011
Project/Team leader Business Intelligence
Internationale Großbank (Banken und Finanzdienstleistungen, 5000-10.000 Mitarbeiter)

Initiierung und Unterstützung von drei Projekten im Umfeld der zukünftigen strategischen DWH-Plattform des Unternehmens. Der Fokus lag auf der Umstellung des DWH-Kerns unter besonderer Berücksichtigung von IT-Sicherheits- und Datenschutzaspekten sowie der Unterstützung bei der Umstellung des Entwicklungsprozesses von einem Wasserfall- auf ein iteratives Modell.

•    Vorbereitung Entscheidungsfindung Management
•    Schnittstelle zum Kunden
•    Verarbeitung von Statusmeldungen
•    Budget-, Zeit- und Qualitätsverantwortung
•    Überwachung der Budgetierungsprozesse
•    Technische Leitung des Teams
•    Vorbereitung der Projektierung
•    Einrichten der Ressourcenplanung
•    Vorbereitung der Budgetplanung
•    Durchführung von Kostenvoranschlägen
•    Berichtssystem
•    Analyse der Anfragen/Anforderungen

Techstack: SQL, PL/SQL, Oracle RDBMS, Informatica 
 

02/2003 - 08/2010
Verschiedene Rollen Data Warehouse / Business Intelligence Plattform
Telekommunikationsunternehmen (Telekommunikation, >10.000 Mitarbeiter)

Gesamtarchitekt

•    Definition der Gesamtarchitektur des DWH innerhalb des Enterprise Warehouse
•    Beratung von Kunden und anderen IT-Linien
•    Definition und Durchsetzung von Architekturdefinitionen
•    Sicherstellung der richtigen Verteilung der Funktionsblöcke innerhalb des EDWH
•    Sicherstellung der Einhaltung von Unternehmensrichtlinien und gesetzlichen Vorgaben, insbesondere der Datenschutzbestimmungen

Analyst/Designer

•    Analyse der technischen Anforderungen der Abteilung
•    Analyse der Daten und Prozesse in den Quellsystemen
•    Erstellung von fachlichen Schnittstellenvereinbarungen
•    Erstellung von technischen Schnittstellenvereinbarungen
•    Erstellung von logischen Datenmodellen
•    Gestaltung des Datenflusses innerhalb des DWH (ETL)
•    Aufbau der Zugriffsschicht (Fakten, Abmessungen)
•    Erstellung von Analysen und mathematischen Modellen

DWH-Entwickler

•    Ableitung von technischen Spezifikationen auf Basis der Anforderungen
•    Implementierung der angegebenen Module (ETL)
•    Erstellung von Datenmodellen (logisch/physikalisch)
•    Betrieb und Wartung, Qualitätssicherung 

Techstack: SQL, PL/SQL, Oracle RDBMS, Informatica 
 

01/2000 - 01/2003
Data Engineer | Data Scientist | Teamlead
Internet Service Provider

Entwicklung einer ETL-Lösung mit operativen Elementen und einem Data Warehouse mit dem Ziel der schrittweisen Verbesserung der Prozesse und der Implementierung eines Standard-Reportings. Anbindung an bestehende Data-Warehouse-Strukturen. Entwicklung eines prozessbezogenen Datamarts, um eine konsolidierte Sicht auf die technisch abgebildeten Geschäftsprozesse zu erhalten. Erstellung diverser Analysen und Berichte.

•    Entwurf ETL / DataMart / Berichtswesen
•    Implementierung ETL / DataMart / Reporting
•    Testing
•    Deployment

Techstack: SQL, PL/SQL, Oracle RDBMS
 

Reisebereitschaft

Weltweit verfügbar
Verfügbar sofort für eine freiberufliche Position in Europa, vor Ort und/oder remote.
Profilbild von Anonymes Profil, Data Scientist, Data Engineer, Business Intelligence, Data Warehousing, Big Data Data Scientist, Data Engineer, Business Intelligence, Data Warehousing, Big Data
Registrieren