10.03.2026 aktualisiert


verifiziert
Premiumkunde
100 % verfügbarSenior AWS Cloud Architect
Frankfurt am Main, Deutschland
Weltweit
B.Sc. Computer Science TU DarmstadtSkills
- AWS Cloud-Architektur & Infrastruktur Langjährige Erfahrung mit AWS-Services wie CDK, Lambda, Step Functions, SQS, DynamoDB, Aurora PostgreSQL und SAM
- Entwicklung sicherer, skalierbarer Lösungen im Enterprise-Umfeld (u. a. HR Data Hub, Flottenmanagement)
- Data Engineering & ETLAufbau von End-to-End-ETL-Pipelines (Inbound, Validierung, Konsolidierung, Outbound) mithilfe von AWS Step Functions und AWS Lambda sowie Snowflake und DynamoDB
- SQL-basierte Quality Rules, Datenvalidierung & Reporting im HR Data Hub Projekt (z. B. via Python, Snowflake und S3)
- Big Data & Analytics (u. a. tägliche Analyse von 720.000+ Bitcoin-Transaktionen) unter Einsatz von AWS Timestream, QuickSight und Athena
- DevOps & CI/CDEinrichtung und Optimierung von CI/CD-Pipelines (AWS CodePipeline, CodeCommit, GitLab CI/CD)
- Migration und Automatisierung von Deployments (z. B. Umzug der CI/CD-Pipeline bei Porsche)
- Datenbanken & Big DataUmgang mit Snowflake, DynamoDB, Aurora PostgreSQL und SQLite (Schema-Design, Performance)
- Umsetzung großer Datenprojekte (z. B. Bitcoin-Transaktionsanalyse, zentraler HR Data Hub)
- IT-Sicherheit & ComplianceRollen- und Rechtemanagement, Dokumentation von IT-Sicherheitsanforderungen (Cloud IDP Security VW Projekt)
- Einhaltung von Compliance-Richtlinien (AWS Lambda-Berechtigungen, PGP-Verschlüsselung, sichere Datenübertragung)
- Produktmanagement & Stakeholder-Kommunikation Planung und Einführung neuer Anwendungen (POS-Systeme, HR Data Hub), Teamleitung und agiles Projektmanagement
- Zusammenarbeit mit Kunden und Entwicklern (Definition von Epics, Projektplanung)
- KI-Integration & BlockchainIntegration von KI-Funktionen mittels AWS Bedrock (Claude 3.5 Sonnet-Modell von Anthropic)
- Entwicklung blockchain-basierter Lösungen (Off-Chain-Transaktionen mit Perun)
Sprachen
DeutschMutterspracheEnglischverhandlungssicherHindiMuttersprache
Projekthistorie
- Entwicklung einer cloud-nativen SaaS-Plattform auf AWS (TypeScript + AWS CDK, Infrastructure-as-Code, Next.js) zur semantischen Analyse beliebiger Unternehmensdaten
- Nutzung von Amazon Aurora Serverless v2 (PostgreSQL 17) inkl. pgvector-Extension für kNN-Similarity-Search und Retrieval-Augmented-Generation (RAG)
- Entwicklung eines generative-AI Chat-Layers auf AWS Bedrock unter Nutzung eines LLM (Anthropic Claude), Natural-Language-Query-Parsing und dynamisches Prompt-Engineering
- Kontextabhängige Visualisierung der Ergebnisse des LLMs als Tabelle, KPI-Anzeigen (Gauges) oder Linien- bzw. Balkendiagramme
- Provisionierung von Serverless APIs (Amazon API Gateway v2 + AWS Lambda, Python) inklusive Data API-basierter CRUD-Lambdas und schema-gesteuertem Input-Validation
- Observability mit Amazon CloudWatch, Performance Insights, Anomaly Detection und zentralem Structured Logging (JSON) für schnelle Root-Cause-Analyse
Projektname: HR DataHub
Projektziel: Entwicklung einer umfassenden ETL-Lösung, um alle HR-bezogenen Daten und Systeme bei Siemens Energy zentral zu verwalten
Tätigkeit:
Projektziel: Entwicklung einer umfassenden ETL-Lösung, um alle HR-bezogenen Daten und Systeme bei Siemens Energy zentral zu verwalten
Tätigkeit:
- Mitentwicklung der Plattform von Anfang an als Teil des Infrastruktur-Teams
- Aufbau der gesamten Infrastruktur mit AWS CDK
- Steuerung des Datenflusses (Inbound, Konsolidierung, Outbound) und Implementierung einer durchgängigen Datenmanagement-Lösung
- Nutzung von Snowflake für konsolidierte Daten, DynamoDB für Metadaten (z. B. Schema-Definition, Supplier)
- Einsatz von SQL-basierten Quality Rules und automatisierter Fehlerbehandlung für Datenvalidierung & Qualitätskontrolle
- Implementierung komplexer Prozesse mit AWS Step Functions & Python-Lambdas
- Verwaltung von Secrets (z. B. PGP-Keys) im AWS Secrets Manager
- Anlegen von AWS Transfer-Usern (SFTP) und Bereitstellung von PGP-Keys für sichere Datenübertragung
- Bereitstellung finaler Daten über S3, SFTP, SnapLogic oder weitere Zielsysteme
- Nutzung von AWS CodeCommit & CodePipeline für Versionierung & Deployments
- Integration von KI-Funktionen mithilfe von AWS Bedrock
Projektname: Porsche Tester Eco System (PTES)
Projektziel: Entwicklung einer webbasierten Flottenmanagement-Software für Fahrzeugdiagnosegeräte (Tester)
Tätigkeit:
Projektziel: Entwicklung einer webbasierten Flottenmanagement-Software für Fahrzeugdiagnosegeräte (Tester)
Tätigkeit:
- Erstellung und Test von AWS Lambda Funktionen für den Licence-, Hardware- und Update-Service mit TypeScript, AWS CDK, AWS SAM
- Verbesserung der AWS Architektur durch einen neuen Operations Service
- Aufbau der Kommunikation und Relation zwischen Tester und Werkstatt Server mit AWS SQS, AWS Lambda, Aurora PostgreSQL
- Prozessentwicklung zur Verteilung von Updates vom Porsche Werkstatt Server zu Tester
- Umzug der CI/CD Pipeline von AWS zu GitLab
- Einhaltung von AWS Lambda Berechtigungen gemäß der Compliance Richtlinien
- API Eingabevalidierung für alle REST APIs in API Gateway
Zertifikate
AWS SysOps Administrator
AWS2025
AWS Data Engineer - Associate
AWS2025
AWS Developer - Associate
AWS2025
AWS Machine Learning Specialty
AWS2024
AWS Solutions Architect - Professional
AWS2023
AWS Solutions Architect - Associate
AWS2022