Kurzprofil:
Seit mehr als 5 Jahren bin ich als Data Scientist & Data Engineer im universitären und industriellen Umfeld tätig. Zu meinen Projekterfahrungen zählen insbesondere die Planung und Implementierung cloud-basierter End-to-End Daten- und Machine Learning Pipelines. Des weiteren besitze ich fortgeschrittene Kenntnisse in der Recherche, Modellierung und zielgerichteten Evaluierung von forgeschrittenen Machine Learning Ansätzen wie Deep Learning sowie deren Live-Betrieb. Ich habe besondere Kenntnisse in der performanten Verarbeitung großer Mengen an Zeitreihendaten für die vorausschauende Fahrzeug- bzw. Maschinenwartung.
Toolstack (Auswahl):
Python, Spark / Pyspark, Prophet, Git, Tensorflow, Databricks, Numpy, Pandas, SQL, Scipy, Redis, Mlflow, Linux, Docker, Azure Deltalake, Azure Fileshare, Azure BLOB, Azure Storage, ADLS Gen2, Pydantic, Koalas, FastAPI, Keras, Azure DevOps, WSL, Azure Data Factory, Azure Virtual Machines, Flask, AWS S3, Jira, Pytest, Unittest, Kubernetes, Spacy, Fasttext, Beautifulsoup, Confluence, Selenium, Pytorch, Kanban, Plotly Dash, Jupyter Notebook / Lab, Java, C++, Andoid, C#, LateX, MS Office, VS Code.
Ich biete:
- Implementierung komplexer ETL Pipelines
- Fortgeschrittene Datenanalysen & Visualisierung
- Requirements Engineering datengetriebener Produkte
- Finden und Entwickeln von Usecase- sowie Businesscases für die datengetriebene Wertschöpfung
- Recherche, Implementierung, Evaluierung, Deployment und Qualitätssicherung von Machine Learning Modellen
- Design, Implementierung und Wartung von End-to-End Data- und Machinne Learning Pipelines
- Projektplanung & Dokumentation
- Transparente und klare Kommunikation
- Umsetzung von DevOps Prinzipien
- Flexible Beauftragungsmodelle inkl. erfolgsbasierte Vergütung
Arbeitsphilosophie:
Ich arbeite zuverlässig, gewissenhaft, pflichtbewusst und präzise.