Profilbild von DrDeniz Tuzsus Data Scientist | AI Engineer | Machine Learning Engineer | LLM | RAG | GenAI aus Koeln

Dr. Deniz Tuzsus

verfügbar

Letztes Update: 17.04.2025

Data Scientist | AI Engineer | Machine Learning Engineer | LLM | RAG | GenAI

Firma: Deniz Tuzsus - Full Stack AI Engineer
Abschluss: Ph.D. Computational Neuroscience
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: Deutsch (Muttersprache) | Englisch (Muttersprache)

Schlagwörter

Künstliche Intelligenz Machine Learning Big Data Datenvisualisierung Deep Learning HTML Javascript PHP APIs Amazon Web Services + 33 weitere Schlagwörter anzeigen

Dateianlagen

profile-deniz-tuzsus_160425.pdf
cv-deniz-tuzsus-deutsch_170425.pdf
cv-deniz-tuzsus-english_170425.pdf

Skills

Technische Skills
GenAI, LLM, RAG, OpenAI, Agentic AI, Huggingface, LangChain, Deep Learning, Machine Learning, Reinforcement Learning, Clustering, Recommender Systems, Computer Vision, Time Series Forecasting, Tensorflow, PyTorch, scikit-learn, NumPy, pandas, XGBoost, Bayesian Statistics, Statistics, Data Visualization, PowerBI, Tableau, Azure, AWS, Docker, MLOps, Mlflow, Airflow, REST API, FastAPI, Flask, Gitlab CI/CD, Git, R Markdown, Rshiny, Streamlit, SQL, MongoDB, Vector DBs (FAISS, Chroma)
Programmiersprachen
Python, R, SQL, JavaScript, HTML, PHP, CSS
Soft Skills
Präsentationen für verschiedene Stakeholder, ausgeprägte Kommunikationsfähigkeit, Führungskompetenz, Beratung, Problemlösung, Lehre und Schulung in industriellen und akademischen Kontexten, SCRUM, CRISP-DM
Erfahrung
Data Science, Data Engineering, AI Engineering, Machine Learning, Deep Learning, Cloud (Azure, AWS), AI Consulting, Startup, Rapid Prototyping, MVP, Data Analysis
 

Projekthistorie

12/2024 - 03/2025
Entwicklung einer skalierbaren RAG-Anwendung zur Produktsuche mit Streamlit, Databricks & Snowflake
(Energie, Wasser und Umwelt, 50-250 Mitarbeiter)

  • Entwicklung einer interaktiven Streamlit-Anwendung zur semantischen Produktsuche mithilfe von Retrieval-Augmented Generation (RAG)
  • Aufbau eines hybriden Routing-Mechanismus: automatische Entscheidung zwischen Vektor-Datenbank (semantisch, z. B. ChromaDB) und SQL-Datenbank (Snowflake) je nach Fragetyp
  • Verarbeitung und semantische Indexierung umfangreicher Produktdokumente (PDFs) mit PySpark auf Databricks zur performanten Einbettung und Vektorisierung
  • Integration von Airflow zur Orchestrierung wiederkehrender ETL-Prozesse (Dokumenteingang, Text-Parsing, Embedding, Index-Building)
  • Transparente Ausgabe der jeweiligen Textpassagen aus relevanten PDF-Dokumenten zur Erhöhung der Nachvollziehbarkeit und Nutzerbindung
  • Eigenverantwortliche Umsetzung von Backend-Logik, Dateninfrastruktur, UI-Komponenten und Deployment in einer Cloud-nativen Umgebung

08/2024 - 12/2024
Entwicklung eines produktiven LLM Text-to-Speech-Systems mit Whisper & Azure OpenAI
(Öffentlicher Dienst, 50-250 Mitarbeiter)

  • Entwicklung und Deployment eines skalierbaren Text-to-Speech-Systems zur Erweiterung von Chat-Interfaces mit sprachbasierter Ausgabe
  • Nutzung von OpenAI Whisper über Microsoft Azure OpenAI Services zur Umsetzung einer performanten TTS-Lösung in Cloud-Umgebung
  • Aufbau einer robusten API-Anbindung zur Echtzeit-Verarbeitung von Textnachrichten und dynamischer Audio-Ausgabe in Web-Anwendungen
  • Eigenverantwortliche Umsetzung der Systemarchitektur, Modellintegration und produktiven Bereitstellung als freiberuflicher AI Engineer
  • Ziel: Verbesserung der Usability und Nutzerbindung durch multimodale Erweiterung textbasierter Interfaces

01/2024 - 12/2024
Entwicklung einer ETL- und ML-Pipeline zur Next-Best-Action-Vorhersage mit Hadoop und PySpark
(Marketing, PR und Design, 50-250 Mitarbeiter)

  • Aufbau einer skalierbaren ETL-Pipeline mit Hadoop und PySpark zur Verarbeitung großer Mengen an Nutzungs-, Transaktions- und Interaktionsdaten im Terabyte-Bereich
  • Konzeption und Implementierung eines Data Lakes auf HDFS-Basis, kombiniert mit einem Data Warehouse (Snowflake) zur Aggregation und Analyse geschäftsrelevanter Kennzahlen
  • Entwicklung einer Vorhersage-Pipeline zur Next Best Action Prediction (z. B. personalisierte Produktempfehlungen, Up-Selling-Trigger) mittels sequenzieller Nutzerdaten
  • Vorverarbeitung und Feature-Engineering komplexer Datenquellen zur Erzeugung hochwertiger Trainingsdaten für Machine-Learning-Modelle
  • Orchestrierung der täglichen ETL-Jobs mit Apache Airflow, inklusive automatischer Fehlerbehandlung, Alerting und Datenqualitätsprüfungen
  • Zusammenarbeit mit anderen Data Scientists zur Modellintegration (z. B. RNNs, Gradient Boosting) in die Datenpipeline und Übergabe an produktive API-Endpunkte

01/2020 - 10/2024
Lead Researcher – Explainable AI in Meta-Reinforcement Learning zur Modellierung menschlicher Entscheidungsstrategien
Universität zu Köln (Öffentlicher Dienst, 10-50 Mitarbeiter)

  • Entwicklung und Leitung eines interdisziplinären Forschungsprojekts zur Analyse und Vorhersage von menschlichem Entscheidungsverhalten in dynamischen Umgebungen (Restless Bandit Tasks)
  • Implementierung eines Meta-Reinforcement-Learning-Frameworks mit verschiedenen 25+ RNN-Architekturen (u. a. LSTM ) in Python (TensorFlow) zur Simulation strategischen Lernverhaltens
  • Anwendung klassischer Machine-Learning-Modelle wie lineare und logistische Regressionen, zur gezielten Auswertung und modellbasierten Analyse der RNN-Interaktionen 
  • Nutzung von Targeted Dimensionality Reduction (TDR) und PCA zur Erzeugung erklärbarer Dimensionen in Hidden-State-Aktivierungen – ein Ansatz inspiriert von Explainable AI und Systems Neuroscience
  • Durchführung umfangreicher Feature-Engineering-Prozesse, um exploratives Verhalten, strategische Wechsel, Belohnungsverläufe und Entscheidungskontext aus Zeitreihendaten zu extrahieren
  • Vergleich von über 20 Reinforcement-Learning-Modellen mit Bayesian Inference (Stan/rStan), einschließlich Kalman-Filter, Softmax mit Exploration Bonus und verschiedenen Perseverationsgraden
  • Automatisierte Modellbewertung mit WAIC, Bayes-Faktoren, Posterior Predictive Checks
  • Veröffentlichung im Peer-Review-Journal Computational Brain & Behavior (Springer, 2024); Open-Source Bereitstellung der Toolchain via GitHub
Technologien: Python, TensorFlow, Stan/rStan, Git, GitHub, NumPy, SciPy, pandas, Matplotlib, PCA, logistic/linear regression, WAIC, Bayesian modeling, custom RL environments

01/2024 - 07/2024
CTO & Lead Data Scientist – LLM-basierter Code- und Legal Assistant zur Barrierefreiheit
paged.ai (Internet und Informationstechnologie, 10-50 Mitarbeiter)

  • Als CTO und leitender Data Scientist verantwortlich für Konzeption, Entwicklung und Produktivsetzung eines Expertensystems zur automatisierten rechtlichen Beratung und barrierefreien Code-Generierung
  • Umsetzung eines LLM-basierten Systems auf Basis des RAG-Frameworks (Retrieval-Augmented Generation) unter Einsatz von LangChain und Azure OpenAI
  • Aufbau eines semantischen Retrieval-Stacks mit ChromaDB (Vektordatenbank) und GraphDB zur intelligenten Verknüpfung von rechtlichen Inhalten und Quellcodefragmenten
  • Entwicklung eines interaktiven Frontends mit Streamlit, das individuelle Codeoptimierungen auf Barrierefreiheit (z. B. WCAG-Standards) vorschlägt
  • Integration in eine containerisierte Umgebung (Docker) mit Fokus auf Skalierbarkeit, Wiederverwendbarkeit und modulare Erweiterbarkeit
  • Anwendung des Systems im Kontext von Legal Tech, Accessibility Audits und automatisierten Code Reviews zur Förderung digitaler Inklusion
  • Leitung eines interdisziplinären Teams und End-to-End-Verantwortung für Data Engineering, Modellarchitektur, Evaluation und Deployment

02/2023 - 08/2023
CTO & Tech Lead – Entwicklung und Deployment eines produktiven Recommendation-Systems zur Verbesserung von Web Accessibility und UX
paged.ai (Internet und Informationstechnologie, 10-50 Mitarbeiter)

  • In der Rolle als CTO und technischer Projektleiter verantwortlich für Konzeption, Umsetzung und Deployment eines intelligenten Recommendation-Systems zur Personalisierung der Web-Zugänglichkeit
  • Aufbau eines produktiven Systems mit TensorFlow, das Nutzenden individuelle Empfehlungen zur Verbesserung der Accessibility liefert – für ein adaptives und inklusives Web-Erlebnis
  • Einsatz eines hybriden Recommender-Ansatzes:
    • Content-based Filtering zur Berücksichtigung individueller Nutzerbedarfe
    • Collaborative Filtering zur Nutzung gemeinsamer Verhaltensmuster
    • Regelbasierte Empfehlungen zur Sicherstellung barrierefreier Mindeststandards bei Cold-Start-Szenarien
  • Leitung der technischen Architektur und Umsetzung eines vollständigen AI-Workflows: Data Engineering, Modelltraining, CI/CD Deployment und Monitoring
  • Entwicklung einer skalierbaren Backend-Infrastruktur (REST API, Containerisierung, Logging) für die Integration in Echtzeit-Webanwendungen
  • Anwendung von Human-Centered AI und wissenschaftlicher Evaluation zur gezielten Unterstützung neurodiverser Nutzergruppen
  • Förderung von digitaler Inklusion und Barrierefreiheit durch datengetriebene UX-Anpassung und kontinuierliche Optimierung durch Nutzungsanalysen

04/2022 - 10/2022
End-to-End Computer-Vision-Lösung zur automatisierten Bildbeschreibung via REST API
paged.ai (Internet und Informationstechnologie, 10-50 Mitarbeiter)

  • Leitung der Entwicklung und produktiven Bereitstellung eines Deep-Learning-basierten Image-Captioning-Modells zur automatischen Generierung von Bildbeschreibungen für Webseiteninhalte
  • Aufbau und Containerisierung der REST API mit FastAPI und Docker zur einfachen Integration in bestehende Microservice-Architekturen
  • Nutzung von Encoder-Decoder-Architekturen (CNN + Transformer/RNN) zur Kombination aus visueller Erkennung und sprachlicher Beschreibung
  • Entwicklung eines modularen und skalierbaren Datenverarbeitungspipelines zur Vorverarbeitung, Inferenz und Speicherung von Metadaten in strukturierter Form (z. B. JSON/Parquet)
  • Enge Verzahnung mit Data Engineering-Prozessen durch automatisierte Speicherung der generierten Bildbeschreibungen in Data Lakes und deren Verfügbarkeit für weitere Analytics-, Search- und SEO-Systeme
  • Implementierung von Logging, Monitoring und Versionierung zur Sicherstellung von Nachvollziehbarkeit und Betriebssicherheit im produktiven Einsatz

01/2022 - 03/2022
Marketing Analytics Dashboard zur Instagram-Datenanalyse mit Tableau
(Marketing, PR und Design, 250-500 Mitarbeiter)

  • Entwicklung eines interaktiven Dashboards mit Tableau zur datenbasierten Analyse von Instagram-Performance-Kennzahlen für eine Social-Media-Beratung
  • Nutzung moderner Marketing-Analytics-Methoden zur Auswertung von Metriken wie Reichweite, Engagement-Rate, Follower-Wachstum und Content-Performance
  • Aufbau automatisierter ETL-Prozesse zur Datenextraktion, Transformation und Qualitätsprüfung aus verschiedenen Social-Media-Quellen
  • Ableitung von Optimierungspotenzialen für Content-Strategien durch datengetriebene Segmentierung und Trendanalysen
  • Einsatz von Visual Analytics zur Identifikation von Erfolgsfaktoren für User Engagement und zur Unterstützung datenbasierter Marketingentscheidungen
  • Unterstützung bei der strategischen Beratung durch Präsentation von datengetriebenen Insights und Handlungsempfehlungen

01/2021 - 06/2021
Zeitreihenprognose mittels Deep Learning zur Vorhersage von Aktienkursen
(Banken und Finanzdienstleistungen, 50-250 Mitarbeiter)

  • Eigenverantwortliche Entwicklung eines Prognosemodells zur Vorhersage von Aktienkursen mittels rekurrenter neuronaler Netze (stacked LSTM) in Python und TensorFlow
  • Aufbau eines automatisierten MLOps-Workflows für Datenaufbereitung, Modelltraining, Evaluation und Deployment mit Azure Machine Learning
  • Integration des Modells in eine CI/CD-Pipeline zur kontinuierlichen Bereitstellung und Aktualisierung mittels Azure DevOps und Git
  • Durchführung von Web-Scraping zur Erhebung und Vorverarbeitung von 17420 Zeitreihen-Datenpunkten aus externen Quellen
  • Einsatz von Azure-Diensten (Azure Blob Storage, Azure ML) zur Speicherung, Versionierung und Operationalisierung des Modells
  • Entwicklung eines skalierbaren und wiederverwendbaren Trainings-Workflows zur effizienten Verarbeitung großer Zeitreihendaten
  • Anwendung moderner Deep-Learning-Techniken (LSTM) für die Modellierung nichtlinearer Abhängigkeiten in Finanzzeitreihen

03/2019 - 06/2019
Flexibles Web-Scraping-Tool zur automatisierten Datenerfassung von Amazon
(Konsumgüter und Handel, 10-50 Mitarbeiter)

  • Entwicklung eines skalierbaren Web-Scraping-Tools in Python unter Einsatz von Selenium und BeautifulSoup zur strukturierten Erfassung von Produktdaten auf Amazon
  • Automatisierte Extraktion und Speicherung relevanter Produktinformationen (z. B. Titel, Preis, Bewertungen) für beliebige Suchbegriffe
  • Erstellung einer wiederverwendbaren Pipeline zur Generierung plattformunabhängiger CSV-Dateien für die Weiterverarbeitung in BI-, Analyse- oder ML-Systemen
  • Berücksichtigung von Anpassungsfähigkeit und Erweiterbarkeit für verschiedene Use Cases im Bereich Market Intelligence, Preisvergleich oder Recommender-Systeme
  • Robustes Fehlerhandling und strukturierte Datenbereinigung zur Sicherstellung konsistenter und verwertbarer Daten

Zertifikate

Azure Fundamentals
2025
Unsupervised Learning, Recommenders, Reinforcement Learning
2022
Neural Networks and Deep Learning
2021
Applied Data Science with Python
2020

Reisebereitschaft

Verfügbar in den Ländern Deutschland, Österreich und Schweiz
Profilbild von DrDeniz Tuzsus Data Scientist | AI Engineer | Machine Learning Engineer | LLM | RAG | GenAI aus Koeln Data Scientist | AI Engineer | Machine Learning Engineer | LLM | RAG | GenAI
Registrieren