03.10.2025 aktualisiert

YT
100 % verfügbar

Senior Consultant - AI, BI & Data

Köln, Deutschland
Weltweit
B.Sc. Wirtschaftsinformatik
Köln, Deutschland
Weltweit
B.Sc. Wirtschaftsinformatik

Profilanlagen

CV_German.pdf
CV_English.pdf

Skills

Künstliche IntelligenzAmazon Web ServicesApache HTTP ServerArchitekturComputer VisionAsanaJiraMicrosoft AzureBash ShellBusiness IntelligenceUnternehmensreportingStrategisches ManagementClusteranalyseContinuous IntegrationInformation EngineeringDevopsUnternehmensstrukturIt-GovernanceInfrastrukturPythonMachine LearningProjektmanagementMicrosoft VisioNumpyPhysical Configuration Audit (PCA)Windows PowershellRole Based Access ControlAzure Active DirectoryAzure Machine LearningScipySemantikSoftwareentwicklungSoftware SystemsSQLSupport Vector MachineSupervised LearningData ScienceAzure Data FactoryFlaskLarge Language ModelsRandom ForestPrompt EngineeringApache SparkDeep LearningArchimateNaive BayesKerasGitlabGitFastapiKanbanPandasPytestPysparkScikit-learnHuggingFaceXgboostDaskBicepSolidityApache KafkaDistributed LedgerDockerUnsupervised LearningDatabricks
Mit über 5 Jahren Einsatz von Best Practices für datengetriebe Softwarelösungen ist für mich klar: Robuste Software wächst nicht auf Bäumen.

Mein Schwerpunkt liegt auf Softwareentwicklung und IT Management mit einem besonderen Fokus auf Daten: von der Infrastruktur und Architekturmodellierung bis hin zu erklärbaren ML-Modellen, robusten AI Agents sowie semantischen Modellen und performanten Dashboards. Zudem bringe ich auch Erfahrung mit diversen Data-Services führender Cloudanbieter - inkl. AWS, Azure und GCP.

Machine Learning
  • Tools: Scikit-Learn, XGBoost, SparkML, NumPy, SciPy
  • Concepts
    • Supervised Learning (Regression, Random Forest, Boosted Trees, Support Vector Machine, Naive Bayes, K-NN)
    • Unsupervised Learning (Clustering: K-Means, DBSCAN, Hierachical Clustering, Spectral Clustering, Gaussian Mixture Models)
    • Explainability and Dimensionality Reduction: PCA, Shap, Boruta, t-SNE, UMAP
Deep Learning
  • Tools: Keras, Tensorflow, Langchain, Huggingface, Guardrails
  • Concepts
    • Autoencoders, RNNs, LSTM, Transformers
    • Computer Vision (CNNs)
    • Generative AI: Large Language Models (LLM), Prompt Engineering, Parameter Tuning, Generative Adversarial Networks
Data Engineering
  • SQL, Python, Pandas, DuckDB, Apache Arrow, PySpark, Dask, Databricks, Delta Lake, Kafka, Airflow
Azure 
  • Cognitive Services, Data Factory, SQL Db, Databricks, Synapse, Blob Storage, ML, ML Studio, AKS, Event Hub, Active Directory, RBAC, ARM, Bicep
Software Engineering & DevOps
  • Python: PyTest, Flask, FastAPI
  • JS/TS: Node.js, React, Svelte, NextJS, Drizzle, Shadcn
  • CI/CD: Git, GitHub, GitLab, Azure DevOps, Docker, Bash, Powershell
Distributed Ledger Technologies:
  • Solidity, web3.py, web3.js, Hardhat, Remix
Project Managment:
  • Azure DevOps, Asana, Jira, Miro, Kanban
Architecture:
  • ArchiMate, Visio

Sprachen

DeutschMutterspracheEnglischverhandlungssicherSpanischgutTürkischMuttersprache

Projekthistorie

Senior Data & AI Consultant

LZPD

Öffentlicher Dienst

>10.000 Mitarbeiter

Entwicklung einer AI Lakehouse Architektur zur Umsetzung diverser KI Use Cases in der Sicherheitsforschung, wie OSINT, Blockchain-Forensik und Echtzeit-Übersetzung
  1. Architekturanalyse, -reifegradbewertung und -erweiterung
  2. Entwurf einer holistischen Daten- und KI-Strategie inkl. plattformübergreifender Governance Strukturen
  3. Implementierung von Batch-,Streaming- und eventbasierten Datenstrecken sowie sicherheits- und compliancekonformen Datenschleusen für externe Datenprovider
  4. Aufbau einer virtuellen Data Warehouse Lösung
  5. Entwicklung von ML und AI Use Cases vom Feature Engineering bis hin zum Model Serving

Co-Founder, Lead Software Engineer

Stealth

Banken und Finanzdienstleistungen

< 10 Mitarbeiter

  • Forschung und Entwicklung modernster Portfolio-Optimierungsalgorithmen sowie ML und XAI Funktionalität
  • Implementierung eines gebootstrapten PoC in Streamlit und FastAPI auf AWS mit Support für über 50 Plattformen
  • Sammlung von Daten und Aufbau einer Dateninfrastruktur für Preisdaten, Kennzahlen und Unternehmensinformation in DynamoDb
  • Migration von AWS zu Vercel
  • Erweiterung zu einer End-to-End Webapplikation in NextJS, Postgres und FastAPI inklusive Payments in Stripe
  • Implementierung von RAG-basierten Multi-Agent Systems zur Investmentanalyse
Tools: Python, Streamlit, AWS EC2, GitHub, Docker, Pandas, NumPy, SciPy, scikit, Qiskit, Shap, LIME, Vercel, FastAPI, Nextjs, ShadCN, Supabase, Drizzle, Tailwind, LangChain, ChromaDB, Neo4j, Ollama, Guardrails.AI, LoRA, Prolog

Quantitativer Entwickler

Energie, Wasser und Umwelt

>10.000 Mitarbeiter

  • Entwicklung von Tools zur automatisierten Generierung von Handelsstrategien
  • Entwicklung von Architektur- und Prozessmodellen zur Konsolidierung einer komplexen ML und Daten-Codebasis 
  • Entwicklung einer internen Bibliothek für technische Indikatoren und Feature Engineering
  • Aufbau einer Forschungsdatenplattform, Daten- und Serivcemigration von GCP zu AWS, Data Warehouse mit Delta Lake und entwickelte Datenpipelines für Marktdatenbeladungs in S3.
  • Entwicklung von Handelsalgorithmen mit FastAPI, Konvertierung von Pandas Workloads zu Databricks, Aufbau eines Intraday Data Warehouses mit Delta Lake.
  • Integration von Modellen, Faktoren und Dashboards für den Handel, mit erfolgreicher Automatisierung von Algorithmen und Benachrichtigungssystemen
Tools: Python, Docker, GitLab, Jira, Airtable, Pandas, FastAPI, Kafka, Delta Lake, Postgres, AWS (EC2, Kinesis, Redshift, Athena, Lambda, Sagemaker, S3), GCP (GCS, BigQuery, BigTable, ClickHouse, MinIO, Pytest, NumPy, SciPy, scikit, Arrow, Streamlit, Dash, Plotly, Lightweightcharts

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden