Profilbild von Ali Ahmad IT-Berater mit einem Fokus in Data und Analytics aus FrankfurtamMain

Ali Ahmad

teilweise verfügbar

Letztes Update: 28.01.2024

IT-Berater mit einem Fokus in Data und Analytics

Firma: Freiberuflicher IT-Berater
Abschluss: M.B.A. in General Management und M.A. in Media and Design Management
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: arabisch (Grundkenntnisse) | deutsch (Muttersprache) | englisch (verhandlungssicher)

Schlagwörter

Microsoft Azure Power Bi Arabisch Confluence Jira Telekommunikation Business Intelligence Business Process Model And Notation Cli Cloud Computing + 33 weitere Schlagwörter anzeigen

Dateianlagen

CV-Ali-Ahmad-ENG_280124.docx
CV-Ali-Ahmad-ENG_280124.pdf
CV-Ali-Ahmad-GER_280124.docx
CV-Ali-Ahmad-GER_280124.pdf

Skills

Sprachen
Deutsch (Muttersprache)
Englisch (Verhandlungssicher)
Arabisch (Grundlagen)

Branchen
Telekommunikation (2.5 Jahre)
Versicherung (1.5 Jahre)
Öffentlicher Sektor (2 Jahre)
Medien (6 Jahre)

Fokusthemen
Data Engineering (4.5 Jahre)
Business Intelligence (4.5 Jahre)
Data Warehouse (4.5 Jahre)
ETL (4.5 Jahre)
Data Quality (4 Jahre)
Machine Learning (1 Jahr)
Process Mining (1 Jahr)

Methoden
Scrum (6 Jahre)
SAFe (6 Monate)
Waterfall (2 Jahre)
Release Management (5.5 Jahre)
CI/CD (2.5 Jahre)
Requirements Engineering (5.5 Jahre)
Solution Design (4.5 Jahre)
OLAP/ Data Cubes (2.5 Jahre)
Data Historization (4 Jahre)
Anonymization and Pseudonymization of Data (2.5 Jahre)
Reference Data Mgmt. (1.5 Jahre)
Model Driven Design (2 Jahre)
BPMN (2 Jahre)

Cloud
Microsoft Azure (1.5 Jahre)

Programming
SQL (6 Jahre)
Python (2.5 Jahre)

Tools
Azure Data Factory (1.5 Jahre)
ADF Data Flows (1.5 Jahre)
Azure KeyVault (1.5 Jahre)
Azure DevOps (0.5 Jahre)
Power BI Service (1 Jahr)
Power BI Client (0.5 Jahre)
Cognos BI (2.5 Jahre)
Automic (2.5 Jahre)
Dataiku Data Science Studio (0.5 Jahre)
Celonis Process Mining (1 Jahr)
GitHub Enterprise (2 Jahre)
GitLab (6 Monate)
Git (4.5 Jahre)
MID Innovator (2.5 Jahre)
VSCode (2.5 Jahre)
DBeaver (2.5 Jahre)
SQL Developer (2.5 Jahre)
Microsoft Storage Explorer (1 Jahr)
Azure CLI (0.5 Jahre)
JIRA (6 Jahre)
Confluence (3.5 Jahre)
Azure Purview (1 Monat)
Apache Airflow (6 Monate)
SAP Web IDE (6 Monate)
SAP HANA XSA Cockpit (6 Monate)
Microsoft Office (12 Jahre)

Frameworks
Spark (0.5 Jahre)
Pandas (1.5 Jahre)
scikit-learn (0.5 Jahre)

Modelle
Data Vault (1.5 Jahre)
Sternschema (4.5 Jahre)
Entity–Relationship (2 Jahre)

Datenbanken
Oracle (4 Jahre)
PostgreSQL (1.5 Jahre)
Azure Data Lake Storage Gen2 (1.5 Jahre)
SAP HANA (6 Monate)
MinIO (S3 Storage) (6 Monate)

Projekthistorie

01/2023 - bis jetzt
Data Engineer
Öffentlich Behörde (Öffentlicher Dienst, 1000-5000 Mitarbeiter)

Aufbau eines Datawarehouse inklusive diverser Frontend-Tools für verschiedene Reporting und Analyse Use Cases. Die Rolle des Senior Data Engineer umfasst dabei:
- Entwicklung verschiedener ETL Strecken als Apache Airflow DAGs, inklusive Datentransformationen basierend auf Python Skripte sowie Procedures und Calculation Views in SAP HANA
- Anbindung verschiedener Open Source Datenquellen
-  Entwicklung mehrerer Datenmodelle je Datenquelltyp in der SAP HANA über mehrere Schemata hinweg
- Regelmäßige Deployments von DEV über die TEST nach PROD, in Absprache mit sämtlichen Datenkonsumenten
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL
Methoden: Scrum, CI/CD, Solution Design, Release Management
Programmiersprachen: SQL, Python
Tools: Apache Airflow, SAP Web IDE, SAP HANA XSA Cockpit, Git, VSCode, DBeaver, JIRA, Microsoft Office
Frameworks: Pandas
Modelle: Entity–relationship
Datenbanken: SAP HANA, Minio (S3 Storage)

10/2021 - 12/2022
Stream Lead Solution Development und Proxy Product Owner
Globaler Versicherer (Versicherungen, >10.000 Mitarbeiter)

Für einen führenden globalen Versicherer wurde eine neue globale Cloud-Datenplattform inklusive ETL-Strecken auf der grünen Wiese entwickelt. Ziel dieser globalen Datenplattform ist es, Policen- und Schadensdaten von Geschäftskunden aus verschiedenen Landeseinheiten zu importieren und zu einer harmonisierten Datenbasis zusammenzuführen. Zentrale Funktionen des Systems sind die Ableitung eines monatlichen Deltas, die Überprüfung der Datenqualität inklusive Entfernen fehlerhafter Datensätze, dem Mapping lokaler Werte in globale Werte und die Historisierung. Basierend darauf, wurden verschiedene Geschäftsanwendungsfälle durch weitere ETL-Strecken, Data Marts und Power BI Dashboards entwickelt. Die zentrale Rolle des Stream Leads für das gesamte Entwicklungsteam und des Proxy-Product Owners umfasste dabei:
- Fachliche Leitung sowie Koordination des zwölfköpfigen Entwicklerteams bestehend aus Architekten, Data Engineers, Data Scientists, DevOps Engineers und Test Engineers
- Operative Unterstützung des Teams durch das Design, die Entwicklung, der Dokumentation und dem Unit-Testing mehrerer Module sowie bei der Analyse und dem Beheben von Bugs
- Review der gesamten End-to-End-Implementierung in Azure Data Factory (ADF), ADF Data Flows, Azure Data Lake Storage Gen2 und PostgreSQL, um sicherzustellen, dass Kundenanforderungen korrekt umgesetzt wurden
- Entwicklung und Einsatz eines Generators zur dynamischen Erstellung von ADF Data Flows und Pipelines basierend auf Python und der pandas Library
- Übergabe des Systems an den 2nd und 3rd Level Support durch regelmäßige Wissenstransfers und Shadowing-Session über mehrere Monate hinweg
- Unterstützung des Testteams bei der Erstellung von geeigneten Test-Cases
- Support des DevOps Teams bei der Entwicklung der CI/CD-Pipeline basierend auf GitHub Enterprise und GitHub Actions
- Bestellung von Cloud-Infrastruktur bei der unternehmensinternen Cloud-Infrastruktur Einheit für die verschiedenen Umgebungen (DEV, TEST, INT, UAT, PROD)
- Abstimmungen mit den unternehmensinternen Datenarchitekten bezüglich des Datenmodells zum einheitlichen Import der Daten aus den verschiedenen Landeseinheiten
- Entwerfen der Lösungsarchitektur in Zusammenarbeit mit dem Architektenteam und weiteren Stakeholdern der IT
- Regelmäßige Präsentation und Moderation der Zwischenergebnisse gegenüber einem breitem Kundenpublikum, inklusive dem höheren Management in Form von Jour Fixes oder Sprint Reviews
- Erstellung und Priorisierung von User Storys im JIRA Backlog
- Moderation von Sprint Events wie Dailys, Sprint Reviews, Sprint Plannings und Backlog Refinement Meetings
- Design eines Rollenkonzepts inklusive Mandantentrennung für den Zugang zur PostgreSQL Datenbank und den Power BI Reports für verschiedene User-Gruppen basierend auf Azure Active Directory Sicherheitsgruppen
- Aufbau einer sicheren Verbindung zwischen dem Power BI Service und dem PostgreSQL Server via Gateway-Verbindungen und parametrisierten Datenbankverbindungen (relevant um Reports ohne großen Aufwand vom DEV- zur INT- und letztendlich zum PROD- Workspace in Power BI Service zu deployen)
- Planung der Migration der Plattform von Azure Data Flows zu PySpark-Skripten auf Databricks (Datentransformationen) und von Azure Data Factory zu Apache Air Flow (Pipeline-Orchestrierung)
- Staffing des Alexander Thamm GmbH Entwicklungsteams (Aufzeigen von Bedarfen und Suche nach geeigneten Kandidatinnen und Kandidaten)
- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung
Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality
Methoden: Scrum, CI/CD, Solution Design, Release Management, Requirements Engineering, Data Historization, Anonymization and Pseudonymization of Data, Reference Data Management
Cloud: Microsoft Azure
Programmiersprachen: SQL, Python
Tools: Azure Data Factory, ADF Data Flows, Azure KeyVault, Azure DevOps, Power BI Service, Power BI Client, VSCode, DBeaver, JIRA, Azure Purview, Microsoft Office
Frameworks: Spark, Pandas
Modelle: Data vault, Star schema
Datenbanken: PostgreSQL, Azure Data Lake Storage Gen2

07/2021 - 04/2022
Projekt Manager
Globaler Rückversicherer (Versicherungen, >10.000 Mitarbeiter)

Organisation und Vorbereitung von Data Science Schulungen für Kunden der Alexander Thamm GmbH. Ziel dieser Schulungen war, die eigenen Fachbereiche (Underwriter) mit den Thema Data Science vertraut zu machen, um die Zusammenarbeit mit Data Scientists zu optimieren und offen für neue Use Cases zu sein. Die Rolle des Projektmanagers umfasste dabei:

- Vorbereitung der Lehrmaterialen gemeinsam mit den Trainern

- Suche nach geeigneten Trainern im eigenen Unternehmen

- Koordination der Schulungen in Absprache mit dem Kunden

- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung

Fokusthemen: Machine Learning, Business Intelligence

Tools: JIRA, Confluence, Microsoft Office

Frameworks: Pandas, scikit-learn


07/2021 - 09/2021
Solution Development Lead
Globaler Versicherer (Versicherungen, >10.000 Mitarbeiter)

Für einen führenden globalen Versicherer wurde in kurzer Zeit ein Proof of Concept (POC) entwickelt für eine neue Datenplattform auf Basis von Azure Cloud Services. Ziel war es, zu beweisen, dass mit Hilfe von Cloud Ressourcen die Datenhaltung als auch alle notwendigen ETL-Strecken schnell und skalierbar entwickelt werden können. Auch das Konsumieren der Daten im Rahmen von Power BI Dashboards war Teil des POCs. Die Rolle des Projektmanagers umfasste dabei:

- Leitung des Entwicklerteams bestehend aus einem Architekten, zwei Data Engineers und einem Terraform-Entwickler

- Review der Implementierung in Azure Data Factory (ADF), ADF Data Flows, Azure Data Lake Storage Gen2 und PostgreSQL, um sicherzustellen, dass Kundenanforderungen korrekt umgesetzt wurden

- Unterstützung des Development Teams bei der Entwicklung von Data Quality Regeln in ADF Data Flows

- Entwicklung eines Power BI Dashboards zur Demonstration von Reporting-Funktionen, unter anderem der Möglichkeit Daten anhand der Row-Level-Security Daten für verschiedene Mandanten zu trennen

- Regelmäßige Vorstellung der Zwischenstände gegenüber dem höheren Management des Kunden

- Durchführung und Vorbereitung der finalen Produktpräsentation vor dem Top Management

- Verknüpfung der POC-Plattform mit Azure Purview zur Demonstration des Data Governance Tools

- Intensive Unterstützung des eignen Vertriebs für Folgebeauftragungen und der Weiterentwicklung der Lösung

- Erstellung von Leistungsnachweisen für die Rechnungserstellung anhand der JIRA-Buchungen inklusive der Budgetplanung

Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality

Methoden: Scrum, CI/CD, Solution Design

Cloud: Microsoft Azure

Programmiersprachen: SQL, Python

Tools: Azure Data Factory, ADF Data Flows, Azure KeyVault, Azure DevOps, Power BI Service, Power BI Client, VSCode, DBeaver, JIRA, Azure Purview, Terraform, Microsoft Office

Frameworks: Spark, Pandas

Modelle: Data vault, Star schema

Datenbanken: PostgreSQL, Azure Data Lake Storage Gen2

 


04/2020 - 06/2021
Requirements Engineer
Statistisches Bundesamt (Öffentlicher Dienst, 1000-5000 Mitarbeiter)

Kernaufgabe der Anforderungsanalyse war die Erstellung von Lastenheften, User Storys und BPMN-Modellen. Während des Projekts wechselte man von einer agilen Entwicklung (Scrum) zum Waterfall-Modell, weshalb sowohl agile als auch Waterfall-Methoden zum Einsatz kamen. Die Rolle des Anforderungsanalysten umfasste dabei:

- Analyse und Ausarbeitung der fachlichen Anforderungen in Zusammenarbeit mit dem Fachbereich

- Dokumentation der Anforderungen in Lastenhefte auf Confluence und Aufteilung dieser in Releases

- Dokumentation der Anforderungen in User Storys in JIRA und Zuweisung der Storys in Epics

- Absprachen mit dem Fachbereich, der Architektur und der Spezifikation zur Klärung offener Punkte während der Anforderungsanalyse

- Übergabe der fachlichen Anforderungen an die Spezifikation

- Ansprechpartner bei fachlichen Fragen für die Architektur, Spezifikation, Entwicklung und Test

- Review der Spezifikation (Pflichtenheft) in Confluence zur Freigabe für den Beginn der Entwicklung

Fokusthemen: Requirements Engineering

Methoden: Scrum, Waterfall, Release Management, BPMN

Programmiersprachen: SQL

Tools: JIRA, Confluence, Microsoft Office

Modelle: Entity-relationship

Datenbanken: Oracle


03/2020 - 05/2020
IT-Berater
Capgemini (Internet und Informationstechnologie, >10.000 Mitarbeiter)

Für die Practice Business & Technology Solutions der Capgemini Deutschland GmbH wurde ein Framework für die Implementierung von Robotic Process Automation (RPA) Use Cases entwickelt, basierend auf Insights welche durch Process Mining gewonnen werden. Dies beinhaltete die folgenden Aufgaben:

- Allgemeine Dokumentation der Konzepte von Process Mining und der entsprechenden Software von Celonis

- Darstellung der verschiedenen Deployment-Szenarien für die Celonis Software

- Entwicklung einer Roadmap, beginnend mit einem Proof of Value (POV) für einen ausgewählten Retail-Prozess (z.B. Order to Cash (O2C) oder Purchase-to-Pay (P2P)) bis hin zur Operationalisierung und Skalierung des Frameworks auf weitere Geschäftsprozesse

Fokusthemen: Process Mining

Cloud: Celonis Intelligent Business Cloud

Programmiersprachen: SQL

Tools: Microsoft Office, Celonis Process Mining

Modelle: Entity-relationship

Datenbanken: Celonis Data Store


10/2018 - 03/2020
Systemübergreifender Solution Designer
Internationales Telekommunikationsunternehmen (Telekommunikation, >10.000 Mitarbeiter)

Für einen großen deutschen Telekommunikationsanbieter wurde das Reporting über den Absatz mobiler Endgeräte um mehrere KPIs bezüglich verschiedener Hersteller-Werbekostenzuschüsse erweitert. Hierfür wurde das Data Warehouse (Backend) um weitere Schnittstellen, Tabellen, Tabellenattribute sowie Berechnungen und Anreicherungen erweitert, sodass der entsprechende Cognos Cube (Frontend) mit den entsprechenden Kennzahlen erweitert werden konnte. Die Rolle als systemübergreifender Solution Designer innerhalb eines Scrum-Teams umfasste dabei:

- Design verschiedener Lösungsarchitekturen im Model Driven Design Ansatz unter Nutzung des Tools MID Innovator

- Spezifikation neuer User Storys in JIRA anhand fachlicher Anforderungen in Zusammenarbeit mit dem Product Owner sowie die Zuweisung der JIRA Epics zu einem Release

- Analyse neuer Datenquellen und Spezifikation neuer Schnittstellen (Datenattribute, Frequenz, Delta-Ermittlung, Fehlerverhalten, Medium)

- Design neuer ETL-Strecken für neue Datenquellen inklusive der Anpassung von Business-Logiken zur Darstellung neuere Kennzahlen im Frontend

- Durchführung von Code-Reviews, um sicherzustellen, dass die fachliche Anforderungen korrekt realisiert wurden

- Unterstützung des Farshore Entwicklungsteams und des Nearshore Testing Teams bei fachlichen Fragen

- Analyse und Verbesserung der Datenqualität durch Optimierung der Schnittstellen oder Anpassung der eigenen Datentransformationen

- Optimierung der Datenbank-Laufzeiten für die pünktliche Bereitstellung der Reports

- Agile Transformation des Projekts vom Waterfall-Modell zu Scrum

- Begleitung bei der Integration des Scrum Teams in ein SAFe Programm

Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse, ETL, Data Quality

Methoden: Scrum, SAFe, Release Management, Requirements Engineering, Waterfall, Solution Design, Model Driven Design, BPMN, OLAP/ Data Cubes, Data Historization

Programmiersprachen: SQL

Tools: Git, MID Innovator, SQL Developer, JIRA, Microsoft Office, Cognos BI, Automic

Modelle: Star schema

Datenbanken: Oracle


03/2018 - 03/2020
Scrum Trainer
TU Darmstadt (Sonstiges, 5000-10.000 Mitarbeiter)

Für Studierende der TU Darmstadt wurden jährliche Scrum Workshops organisiert und vor Ort (2018 und 2019) als auch digital (2020) durchgeführt, um diese bereits vor dem Berufseinstieg mit der agilen Methodik vertraut zu machen. Die Rolle des Trainers umfasste dabei:

- Entwicklung der Präsentation und der Zusammenfassung von Scrum

- Vorbereitung der Simulation „Scrum Lego City“ (2018 und 2019) bzw. der digitalen Alternative mit Minecraft anstelle von Lego (2020)

- Präsentation der Methode im Rahmen einer Vorlesung an der TU Darmstadt (2018 und 2019) bzw. digital (2020)

- Durchführung der Simulation vor Ort (2018 und 2019) und digital (2020)

Fokusthemen: Scrum

Methoden: Simulation “Scrum Lego City”, Scrum Simulation mit Minecraft


03/2018 - 12/2018
Solution Designer
Internationales Telekommunikationsunternehmen (Telekommunikation, 1000-5000 Mitarbeiter)

Erstellung eines Frameworks zur automatischen Anonymisierung personenbezogener Daten innerhalb des Data Warehouse eines großen deutschen Telekommunikationsanbieters samt Nachweis. Sowohl historische Daten(einmalig) als auch aktuelle Daten (täglich) wurden durch das Framework anonymisiert, ohne dabei die Aussagekraft bestehender Reports zu beeinträchtigen. Eine Besonderheit stellte hier die Pseudonymisierung der MSISDN (Mobilfunknummer) dar, da dieses Attribut in vielen Tabellen als Schlüsselattribut fungiert und eine MSISDN nach einer gewissen Frist neu vergeben werden kann. Die Rolle des Solution Designers innerhalb eines Scrum-Teams umfasste dabei:

- Auswahl relevanter Tabellen und Attribute gemäß DSGVO (EU GDPR) in Absprache mit den Datenschutzbeauftragten

- Analyse und Gruppierung betroffener Tabellen in Cluster

- Konzeption geeigneter Löschkonzepte (Pseudonymisierung sowie verschiedene Anonymisierungsformen) je Attributart und je Tabelle

- Design von Tabellen für das Speichern von Löschnachweisen

- Modellierung und Dokumentation des Frameworks

Fokusthemen: Business Intelligence, Data Warehouse

Methoden: Anonymization and Pseudonymization of Data, Model Driven Design, BPMN, Scrum, Requirements Engineering, Solution Design, Release Management

Programmiersprachen: SQL

Tools: MID Innovator, SQL Developer, JIRA, Git, Automic, Microsoft Office

Modelle: Star schema

Datenbanken: Oracle

10/2017 - 03/2018
Solution Designer
Internationales Telekommunikationsunternehmen (Telekommunikation, >10.000 Mitarbeiter)

Für einen großen deutschen Telekommunikationsanbieter mussten die Cognos Power Play Cubes zu Dynamic Cubes migriert werden, um die Betreibbarkeit mehrerer Reports weiterhin zu gewährleisten. Hierfür mussten mehrere Tabellen im Data Warehouse (Backend) angepasst werden, als auch neue erstellt werden, um performante Live-Abfragen durch die neuen Dynamic Cubes zu ermöglichen. Die Aufgaben als Solution Designer umfassten:

- Analyse alter Power Play Cubes zur Definition aller relevanten Fakten und Dimensionen

- Identifizierung der relevanten Tabellen je Cube im Data Warehouse (Backend)

- Modellierung neuer Sternschemata zur optimierten Live-Abfrage von Daten über Dynamic Cubes

- Dokumentation der neuen Modelle im Rahmen des Model Driven Design im Tool MID Innovator

Fokusthemen: Data Engineering, Business Intelligence, Data Warehouse

Methoden: Waterfall, Release Management, Solution Design, OLAP/ Data Cubes, Model Driven Design, BPMN

Programmiersprachen: SQL

Tools: Cognos BI, MID Innovator, SQL Developer, Git, JIRA, Microsoft Office

Modelle: Star schema

Datenbanken: Oracle


Zertifikate

Dataiku Core Designer
2021
Data Analysis with Python
2020
Databases and SQL for Data Science
2020
Python for Data Science and AI
2020
Data Science Methodology
2020
Tools for Data Science
2020
What is Data Science?
2020
Certified Celonis Data Analyst
2020
Certified Celonis Data Engineer
2020
Capgemini Insights and Data School
2018
Professional Scrum Master 1
2017

Reisebereitschaft

Verfügbar in den Ländern Deutschland, Österreich und Schweiz
Bevorzugt sind Remote-Projekte. Reisebereitschaft in der DACH-Region besteht für einzelne wichtige Termine vor Ort. Je nach Frequenz und Distanz der vor Ort Termine muss ein gesonderter Tagessatz vereinbart werden.

Sonstige Angaben

Kommunikativer und analytischer IT-Berater mit über fünf Jahren Erfahrung in verschiedenen Data und Analytics Projekten bei internationalen Großkonzernen. Als Stream Lead ein zwölfköpfiges Team geführt und ein neue globale Cloud-basierte Datenplattform entwickelt; von der Designphase über die Entwicklung bis hin zur Übergabe und Aufnahme in den Betrieb. Besonders auszeichnend ist die Kombination aus technischer und fachlicher Stärke, welche in der Vergangenheit durch Einsätze vom Data Engineering bis hin zur Anforderungsanalyse erfolgreich unter Beweis gestellt wurden. Dadurch konnten technisch komplexe Sachverhalte den Businessabteilungen stets verständlich erläutert werden, während das Entwickeln von Software immer fachliche Anforderungen erfüllte.
Profilbild von Ali Ahmad IT-Berater mit einem Fokus in Data und Analytics aus FrankfurtamMain IT-Berater mit einem Fokus in Data und Analytics
Registrieren