16.02.2026 aktualisiert


Premiumkunde
nicht verfügbarinfo: nicht verfügbar bis 31.03.2026
Senior Data & AI Architect
Isernhagen, Deutschland
Deutschland
System-IngenieurÜber mich
Solution Architect, technische Führung und Projektmanagement von großen und komplexen Data Intelligence-Projekten. Strategie, Architektur, Design, Implementierung, Performance-Optimierung von Data Intelligence-Systemen. Technische Leadership Rolle für deutsche und internationale Teams.
Skills
Erfahrungen, Schwerpunkte und Verantwortlichkeiten
- IT-Erfahrung seit 29 Jahren – davon 20 Jahre mit Data Analytics und Business Intelligence
- Solution Architect, technische Führung und Projektmanagement von großen und komplexen Data Intelligence-Projekten
- Architektur und Umsetzung von KI-Usecases
- Führungsverantwortung, z. B. übergreifende technische Leadership Rolle als Data Solution Architect / Technical Lead für deutsche und internationale (Nearshore und Offshore) Teams (ca. 25 Personen), Coaching von Senior- und Managing-Consultants
- Aufbau der Data Intelligence Consulting-Abteilungen (existierenden und von Null aus)
- Projektakquise: Vorbereitung von Ausschreibungen, PoC, Pitchfolien, Kundenworkshops und Präsentationen
- Kundenkommunikation auf dem C-Level und Entwicklung von neuen datengetriebenen Geschäftsmodellen
- Konzeption, organisatorische und technische Führung des Implementierungsprozesses und Inbetriebnahme eines metadatengetriebenen ELT-Frameworks für die Durchführung von Azure Data Intelligence-Projekten (Azure Data Factory, Databricks, Python) mit der Datenintegration von mehreren Quellen (SAP, relationale Datenbanken, REST-Endpoints, XML / JSON / XLSX / CSV Dateien etc.)
- Erarbeitung einer Projektmethodik für Data Intelligence-Projekte
- Anforderungsaufnahme und -analyse mit Kunden, Durchführung von Workshops
- Strategie, Architektur, Design, Implementierung, Performance-Optimierung von Data Intelligence-Systemen
- Data Warehouse Design, Konzeption und Implementierung von komplexen ETL/ELT-Prozessen
- Einführung und Management der DevOps-Prozesse
- Data Governance und Data Lineage
- Data Quality und Master Data Management
- Durchführung von Kundentrainings
- Ausbildung und Coaching im Data Intelligence-Umfeld
IT-Kompetenz
Data Intelligence
- Databricks, Unity Catalog, Apache Spark, Medallion Lakehouse Architecture, Delta Lake
- Microsoft Fabric, Power BI, Azure Data Factory, Azure Data Lake Storage, Azure Synapse Analytics, Azure SQL Database, Logic Apps, Power Apps, Event / IoT Hub, Azure Stream Analytics
- SQL, Python / PySpark, DAX
- CI/CD, Azure DevOps, Git, Jira, Confluence
- Infrastructure-as-code (Terraform)
- Agile, Scrum, SAFe
- Architektur und Modellierung von Data & AI-Systemen
- Lakehouse, Data Warehouse, ETL/ELT-Prozesse, OLAP und Reporting
- Cloud-Technologien
- Microsoft Business Intelligence: SQL Server, Integration Services (SSIS), Analysis Services Multidimensional und Tabular (SSAS), Reporting Services (SSRS), Master Data Services (MDS)
- SharePoint
Datenbanken
- Databricks Delta Lake & SQL Warehouse
- Microsoft Fabric Lakehouse & Warehouse
- Azure Synapse Dedicated & Serverless
- Microsoft SQL Server
- NoSQL: Cosmos DB, MongoDB
- SAP HANA und SAP BW
- PostgreSQL
- Oracle
- MySQL
- SQLite
Softwareentwicklung
- Python
- Microsoft .NET
- C#, C/C++, Visual Basic
- SQL, T-SQL, DAX, MDX, PL/SQL
- Microsoft Visual Studio & Visual Studio Code
Branchenkompetenz
- Energie
- Automobilindustrie
- Groß- und Einzelhandel
- Immobilien
- Chemie
- E-Commerce
- IT / Software
- IT-Services
- Transport
- Leasing
- Logistik
- Öffentlicher Sektor
Sprachen
DeutschverhandlungssicherEnglischverhandlungssicherRussischMuttersprache
Projekthistorie
- Technische Leitung
- Anforderungsaufnahme und -analyse
- Architektur und Umsetzung der Treasury-Reporting-Lösung mit Microsoft Fabric und Power BI
Tätigkeiten
- Technische Leitung
- Kommunikation mit mehreren Fachbereichen und Stakeholdern auf Management-Ebene
- Design, Umsetzung, Einführung und Betrieb der Lakehouse-Architektur mit Azure Databricks, Delta Lake und Apache Spark
- Architektur und Umsetzung von KI-Usecases
- Design und Entwicklung eigenes medadata-driven ETL-Frameworks für Databricks mit Azure Data Factory, Azure Databricks und Python (keine vorhandenen Standard-Lösungen von Microsoft und Databricks)
- Einführung und Management von DevOps und CI/CD
- Daten-, Event- und Applikationsbasierte Datenintegration
- Datenintegration von mehreren Systemen in einer hybriden (On-Prem und Cloud) Umgebung
- Design und Umsetzung von komplexen ETL-Prozessen und Data Lineage
- Datenvirtualisierung mit Databricks Unity Catalog
- Einführung von Data Governance und Master Data Management
- Power BI Premium Einführung und Prozessoptimierung
Technologien / Tools
Microsoft Azure Data Plattform (Azure Databricks, Apache Spark, Apache Hive, Azure Data Lake Storage, Lakehouse, Delta Lake, Azure Data Factory, Azure Synapse Analytics, Azure SQL Database, Logic Apps, Power Apps, Power BI, DAX), CI/CD, Azure DevOps, Python, Git, Visual Studio Code, Jira, Confluence
Tätigkeiten
- Anforderungsaufnahme und -analyse
- Kommunikation mit mehreren Fachbereichen und Stakeholdern auf Management-Ebene
- Analyse der technischen Ausgangssituation
- Abklärung des Lösungsraums mit den Stakeholdern
- Erarbeitung von drei alternativen Lösungsvorschlägen
- Unterstützung bei der Abstimmung der Architekturentscheidung
- Ausarbeitung und Abstimmung des Konzeptes zur Vorbereitung der Umsetzung
Technologien / Tools
AWS, Apache Kafka, ksqlDB, Docker, Java, Oracle, PostgreSQL, Confluence, Jira