03.10.2025 aktualisiert
YT
100 % verfügbar
Senior Consultant - AI, BI & Data
Köln, Deutschland
Weltweit
B.Sc. WirtschaftsinformatikSkills
Künstliche IntelligenzAmazon Web ServicesApache HTTP ServerArchitekturComputer VisionAsanaJiraMicrosoft AzureBash ShellBusiness IntelligenceUnternehmensreportingStrategisches ManagementClusteranalyseContinuous IntegrationInformation EngineeringDevopsUnternehmensstrukturIt-GovernanceInfrastrukturPythonMachine LearningProjektmanagementMicrosoft VisioNumpyPhysical Configuration Audit (PCA)Windows PowershellRole Based Access ControlAzure Active DirectoryAzure Machine LearningScipySemantikSoftwareentwicklungSoftware SystemsSQLSupport Vector MachineSupervised LearningData ScienceAzure Data FactoryFlaskLarge Language ModelsRandom ForestPrompt EngineeringApache SparkDeep LearningArchimateNaive BayesKerasGitlabGitFastapiKanbanPandasPytestPysparkScikit-learnHuggingFaceXgboostDaskBicepSolidityApache KafkaDistributed LedgerDockerUnsupervised LearningDatabricks
Mit über 5 Jahren Einsatz von Best Practices für datengetriebe Softwarelösungen ist für mich klar: Robuste Software wächst nicht auf Bäumen.
Mein Schwerpunkt liegt auf Softwareentwicklung und IT Management mit einem besonderen Fokus auf Daten: von der Infrastruktur und Architekturmodellierung bis hin zu erklärbaren ML-Modellen, robusten AI Agents sowie semantischen Modellen und performanten Dashboards. Zudem bringe ich auch Erfahrung mit diversen Data-Services führender Cloudanbieter - inkl. AWS, Azure und GCP.
Machine Learning
Mein Schwerpunkt liegt auf Softwareentwicklung und IT Management mit einem besonderen Fokus auf Daten: von der Infrastruktur und Architekturmodellierung bis hin zu erklärbaren ML-Modellen, robusten AI Agents sowie semantischen Modellen und performanten Dashboards. Zudem bringe ich auch Erfahrung mit diversen Data-Services führender Cloudanbieter - inkl. AWS, Azure und GCP.
Machine Learning
- Tools: Scikit-Learn, XGBoost, SparkML, NumPy, SciPy
- Concepts
- Supervised Learning (Regression, Random Forest, Boosted Trees, Support Vector Machine, Naive Bayes, K-NN)
- Unsupervised Learning (Clustering: K-Means, DBSCAN, Hierachical Clustering, Spectral Clustering, Gaussian Mixture Models)
- Explainability and Dimensionality Reduction: PCA, Shap, Boruta, t-SNE, UMAP
- Tools: Keras, Tensorflow, Langchain, Huggingface, Guardrails
- Concepts
- Autoencoders, RNNs, LSTM, Transformers
- Computer Vision (CNNs)
- Generative AI: Large Language Models (LLM), Prompt Engineering, Parameter Tuning, Generative Adversarial Networks
- SQL, Python, Pandas, DuckDB, Apache Arrow, PySpark, Dask, Databricks, Delta Lake, Kafka, Airflow
- Cognitive Services, Data Factory, SQL Db, Databricks, Synapse, Blob Storage, ML, ML Studio, AKS, Event Hub, Active Directory, RBAC, ARM, Bicep
- Python: PyTest, Flask, FastAPI
- JS/TS: Node.js, React, Svelte, NextJS, Drizzle, Shadcn
- CI/CD: Git, GitHub, GitLab, Azure DevOps, Docker, Bash, Powershell
- Solidity, web3.py, web3.js, Hardhat, Remix
- Azure DevOps, Asana, Jira, Miro, Kanban
- ArchiMate, Visio
Sprachen
DeutschMutterspracheEnglischverhandlungssicherSpanischgutTürkischMuttersprache
Projekthistorie
Entwicklung einer AI Lakehouse Architektur zur Umsetzung diverser KI Use Cases in der Sicherheitsforschung, wie OSINT, Blockchain-Forensik und Echtzeit-Übersetzung
- Architekturanalyse, -reifegradbewertung und -erweiterung
- Entwurf einer holistischen Daten- und KI-Strategie inkl. plattformübergreifender Governance Strukturen
- Implementierung von Batch-,Streaming- und eventbasierten Datenstrecken sowie sicherheits- und compliancekonformen Datenschleusen für externe Datenprovider
- Aufbau einer virtuellen Data Warehouse Lösung
- Entwicklung von ML und AI Use Cases vom Feature Engineering bis hin zum Model Serving
- Forschung und Entwicklung modernster Portfolio-Optimierungsalgorithmen sowie ML und XAI Funktionalität
- Implementierung eines gebootstrapten PoC in Streamlit und FastAPI auf AWS mit Support für über 50 Plattformen
- Sammlung von Daten und Aufbau einer Dateninfrastruktur für Preisdaten, Kennzahlen und Unternehmensinformation in DynamoDb
- Migration von AWS zu Vercel
- Erweiterung zu einer End-to-End Webapplikation in NextJS, Postgres und FastAPI inklusive Payments in Stripe
- Implementierung von RAG-basierten Multi-Agent Systems zur Investmentanalyse
- Entwicklung von Tools zur automatisierten Generierung von Handelsstrategien
- Entwicklung von Architektur- und Prozessmodellen zur Konsolidierung einer komplexen ML und Daten-Codebasis
- Entwicklung einer internen Bibliothek für technische Indikatoren und Feature Engineering
- Aufbau einer Forschungsdatenplattform, Daten- und Serivcemigration von GCP zu AWS, Data Warehouse mit Delta Lake und entwickelte Datenpipelines für Marktdatenbeladungs in S3.
- Entwicklung von Handelsalgorithmen mit FastAPI, Konvertierung von Pandas Workloads zu Databricks, Aufbau eines Intraday Data Warehouses mit Delta Lake.
- Integration von Modellen, Faktoren und Dashboards für den Handel, mit erfolgreicher Automatisierung von Algorithmen und Benachrichtigungssystemen