Profilbild von Steffen Dahnke eviit GmbH - Scrum PO / PMO und Projektleiter mit Herz aus Ahrensburg

Steffen Dahnke

verfügbar

Letztes Update: 25.07.2023

eviit GmbH - Scrum PO / PMO und Projektleiter mit Herz

Firma: eviit GmbH
Abschluss: Bachelor Mathematik
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: k. A.

Schlagwörter

Dateianlagen

Steffen-Dahnke-cv_250723.pdf

Skills

eviit GmbH - Fundiertes Wissen, umfangreiche Erfahrung und eine ausgeprägte Leidenschaft für Innovation und neue Ideen bilden die Plattform für Erfolg.

Wir glauben an Daten getriebene Entscheidungen.

eviit ist ein modernes, branchenübergreifendes Unternehmen das Kunden auf der ganzen Welt hochgradig organisatorische und technologische Produkte sowie Beratungs- und Umsetzungsleistungen anbietet.
 
Durch unsere hohe Spezialisierung steigern wir die Qualität und den Wert von Informationen und unterstützen Sie dabei neue Absatzwege zu beschreiten und Ihr Unternehmen zu optimieren.


Scrum, Big Data, Certified Developer, Certified Performance, Jira, ITIL, AWS, Java SE, Python, Ruby, Groovy, PHP, LUA, SQL, MDX, Javascript, HTML, Swift, Datenbanken, Exasol, MySQL, Postgres, Oracle, Hbase, Teradata, CouchDB, DB2, BigQuery, MongoDB, Linux, Windows, Mac, Talend Data Integration (DI) mit BigData, Talend Data Mapper, Talend, Metadata Manager, Talend Data Catalog, Data Lineage, Google, Cloud, Google Datastudio, Google Cloud Run, Google DataFlow, Alibaba Cloud, Azure, Terraform, GitLab, Pentaho DI, MapR, AMQP, Docker Swarm, Kubernetes, Pentaho BI Server, Jenkins, Maven, SVN, Git, Mondrian, PyCharme, Saiku, Olap, Rapid Miner, Apache Tomcat, SonarQube, Gambio, Kanban, Agile, Jira, Confluence, Docker, DI, Talend ESB, Java, Terradata, Google BigQuery, DevOps, GitLab CI, ETL, SaaS, Google Functions, Google Storage, CSS, DWH, Data Quality, Data Vault, IBM DB2, Natural Language Processing, API, Django, Flask, Python Framework, NLP, NLP API, Google Chrome Extension, DDL, HANA SQL Script, SAP ERP, SAP HANA, iOS, PL/SQL, Oracle Exadata, River-Bridge-Modell, Pentaho, Bash, Social Media, Webservices, Talend Data Integration, Teradata SQL, Delivery Pipeline, jUnit, HP ALM, Cherwell ITSM, Oracle SQL, Exasol SQL, BMC Control-M, Data Capture, Talend DI, CDC, Pentaho Business Intelligence Server (BI), MS Access, Machine Learning, AI, DWH, ETL, ELT, Data-Warehouse, Big Data, Data Engineer, Data Engineering, Engineering

Projekthistorie

03/2021 - bis jetzt
Google Cloud Data Engineer
Media Markt Saturn (Konsumgüter und Handel, >10.000 Mitarbeiter)

Branche

eCommerce

Zeitraum

03/2021 bis 08/2021

Rolle

    Data Engineer

  • Entwicklung von ETL-Strecken mit SQL auf der BigQuery
  • Optimierung der bisherigen ETL-Strecken
  • Integration von Streaming in die bestehende Batch-Verarbeitung
  • Rework eines Datenmodells
  • Entwurf & Integration einer CI/CD Pipeline für SQL-Strecken in der Google Cloud (erst mit Cloud Build, später direkt über Dataform)
  • Kommunikation und Abstimmung von Team übergreifenden Anforderungen
  • Unterstützung des Product Owners bei der Planung der Sprints

 

Methodik und Technologien

Jira, Confluence, Python, Javascript, SQL, Google Cloud, Big Query, Google Functions, Google Cloud Build, Google Cloud Run, Dataform, Google Workflows, Kubeflow


12/2020 - 03/2021
Cloud DevOps
Deloitte (Wirtschaftsprüfung, Steuern und Recht, >10.000 Mitarbeiter)

* Rollout einer kompletten Anwendung in der Cloud und On-Premise
* Onboarding neuer Kunden
* Weiterentwicklung & Wartung der Kubernetes Cluster
* Weiterentwicklung & Wartung der Infrastruktur
* Weiterentwicklung der Build-Pipeline
* Planung und Entwicklung einer Kubernetes BackUp und Recovery Strategie

Methodik und Technologien:
Jira, Confluence, Python, Terraform, AWS, Kubernetes, Velero, SAP Hana, Bash, Shell, Jenkins, R, Scrum

03/2020 - 12/2020
Scrum Product Owner (PO) eines Devops Teams
OTTO (Konsumgüter und Handel, >10.000 Mitarbeiter)

* Organisation eines Scrum Teams
* Team übergreifende Kommunikation
* Übernahme und Weiterentwicklung von Anwendungen in die Verantwortung des Teams

* Support für andere Teams bei Fragen bzgl. spezifischer Technologien
* Migration eine BI-Infrastruktur in die Google Cloud organisation Talend Ramp-Down auf Cloud native Technologien

Methodik & Technologien: 

Jira, Confluence, Talend, Exasol, OpenShift, Docker, Container, Talend DI, Talend ESB, Java, Terradata, Google Cloud, Google Datastudio, Google BigQuery, Google DataFlow


01/2020 - 12/2020
Solution Architekt, Entwickler und DevOps - Aufbau eines Projekt-Management-Systems
eviit (Internet und Informationstechnologie, < 10 Mitarbeiter)

* Planung und Entwicklung einer generischen CI/CD Pipeline mit GitLab CI für das Deployment in Google Cloud Run
* Planung und Entwicklung eines DWHs in Google BigQuery
* Near-Real-Time Beladung von Marktdaten mit Python-ETL-Jobs in Google-Func8ons
* Entwicklung einer kompleien Software-as-a-Service (SaaS) Lösung
* Entwicklung von neuralen Netzen zur Berechnung diverser Kennzahlen

Methodik und Technologien:
Python, Javascript, BigQuery, Google Functions, Docker, Kubernetes, Google Cloud, Google Datastudio, Google Storage, Gitlab, Elasticsearch, html, CSS


03/2020 - 06/2020
Entwickler und DevOps - DWH Data Quality
Deutsche Hypothekenbank (Banken und Finanzdienstleistungen, 500-1000 Mitarbeiter)

* Weiterentwicklung eines zeitgemäßen Data Quality Ansatzes
* Planung eines Talend Upgrads
* Planung eines DB2 Upgrades inkl. der Einführung der DB2 BLU für das gesamte DWH auf Data Vault 2 Basis

Methodik und Technologien:
Talend DI, Data Vault 2, IBM DB2


09/2019 - 03/2020
Teamleiter, Solution Architekt und Entwickler - Neuaufbau eines DWHs
Lufthansa Technik (Industrie und Maschinenbau, >10.000 Mitarbeiter)

* MVP eines modernen und unternehmensweit einheitlichen DWH nach Data Vault
* Evaluierung verschiedener Architekturansätze im Rahmen der technischen Gegebenheiten
* Planung, Konzeption und Bau verschiedenster hoch dynamischer ETL-Strecken in Talend DI
* Entwicklung eines dynamsichen DDL-Generators in Python
* Entwicklung von ELT-Beladungsprozessen in HANA SQL Script
* Teamweite und Unternehms übergreifend Aufgabenverteilung mit Anlehnung an Scrum
* Enge Kommunikation mit den Stakeholdern (Anforderungs- & Erwartungsmangement)

Methodik und Technologien:
Talend DI, Python, SAP ERP, SAP HANA, Oracle, Data Vault, AWS


01/2019 - 12/2019
Solution Architekt, Entwickler und DevOps - Natural Language Processing API
eviit (Internet und Informationstechnologie, < 10 Mitarbeiter)

* Planung und Entwicklung einer modernen Rest-API auf Django (Python Framework) für Natural Language Processing Workflows
* Training von NLP Modellen (Neurale Netzwerke)
* Planung und Entwicklung einer generischen CI/CD Pipeline mit GitLab CI für das Deployment in Azure
* Planung und Entwicklung eines DWHs in Google BigQuery
* Near-Real-Time Beladung von Marktdaten mit Python-ETL-Jobs in Google-Functions
* Analyse von Trenddaten durch die NLP API mit dem Google Datastudio
* Bau einer Google Chrome Extension für die NLP API

Methodik und Technologien:
Python, Javascript, BigQuery, Google Functions, Docker, Kubernetes, Google Cloud, Azure, Google Datastudio, Gitlab


02/2018 - 06/2019
Teamleiter und DWH-Entwickler - DWH Migration
Arvato Bertelsmann (Medien und Verlage, >10.000 Mitarbeiter)

* Migration eines bestehenden Oracle DWH nach Exasol
* Migration von PL/SQL-Funktionen nach Lua
* Erweiterung eines bestehenden DWH-Frameworks auf Lua- & Python-Basis
* Koordination eines Projekt-Teams nach dem River-Bridge- Modell

Methodik und Technologien:
Python, Lua, Java, Exasol, Oracle Exadata, River-Bridge-Modell


01/2017 - 06/2019
Trainer - Schulung/Workshop zu Talend DI Best Practices/Continuous Delivery
OTTO (Konsumgüter und Handel, >10.000 Mitarbeiter)

* Ausarbeitung eines Trainings für Talend Best Prac8ces mit dem Schwerpunkt cimt Job Instance Framework und Con8nuous Delivery für Talend
* Erstellung von Schulungsmaterialien
* Durchführung der Schulung

Methodik und Technologien:
Talend Data Integration, Jenkins, Maven, Groovy


01/2019 - 03/2019
Solution Architekt, Entwickler und DevOps - AI gestützte Fahrzeugbewertung
eviit (Internet und Informationstechnologie, < 10 Mitarbeiter)

* Planung und Entwicklung einer modernen iOS-App, die durch Bilderkennung und intelligente AI-Algorithmen die Art und den Wert eines Fahrzeuges ermittelt und auch hinweise auf kommende Reparaturen und die vermutlichen Kosten gibt

Methodik und Technologien:
xCode, Swift, Javascript, Google Storage, MongoDB


06/2017 - 09/2018
DWH-Entwickler und DevOps - Aufbau eines konsolidierten DWH-Systems
Xing (500-1000 Mitarbeiter)

* Entwicklung und Konzeption eines neuen DWH-Systems
* Planung der Aufgaben und Koordination des ETL-Teams
* Einarbeitung und Hands-on-Training im Bereich Talend DI und Big Data
* Betreuung der Systeme (TAC, Git, etc.) bei Produktionsproblemen

Methodik und Technologien:
Talend Data Integration, MapR, AMQP, Talend Big Data, Exasol, Lua, MySQL


06/2018 - 06/2018
Architekt und Coach - DWH Quality Assurance (QA)
Hermes (Transport und Logistik, >10.000 Mitarbeiter)

* Validierung bisher entwickelter ETL-Strecken
* Validierung der bisherigen DWH-Struktur
* Validierung der Vorgehensweise (Deployment, Testing, etc.)

Methodik und Technologien:
Talend Data Integration, Exasol, Data Vault


01/2018 - 05/2018
DevOps - Migration einer BI-Infrastruktur
S-Servicepartner (Banken und Finanzdienstleistungen, 500-1000 Mitarbeiter)

* Konzeption und Planung der Migration
* Durchführung der Migration
* Dokumentation der Migration
* Beratung bei der Wahl der Hardware bezüglich der zu erwartenden Auslastung

Methodik und Technologien:
Pentaho, MySQL, Bash


01/2017 - 06/2017
Java-Entwickler - Weiterentwicklung eines Monitoring-/Controlling- Frameworks
OTTO (Konsumgüter und Handel, >10.000 Mitarbeiter)

* Requirements Engineering: Aufnahme, Konsolidierung und Bewertung von Anforderungen
* Erstellung nachvollziehbarer Tesoälle zur Nachstellung der Fehlersitua8onen
* Analyse vorhandener komplexer Daten- und SQL-Strukturen
* Weiterentwicklung des Frameworks als Webservices

Methodik und Technologien:
Java SE, Talend Data Integra8on, Teradata SQL


09/2016 - 01/2017
Entwickler und DevOps - Optimierung einer Continuous Delivery Pipeline für Talend Data Integration
OTTO (Konsumgüter und Handel, >10.000 Mitarbeiter)

* Analyse bestehender Deployment-Prozesse
* Optimierung einer Continuous Delivery Pipeline mit Jenkins
  * Aktualisierung und Optimierung des Jenkins CI Servers
  * Optimierung von Talend DI Build Prozessen
  * Entwicklung von Groovy Scripts zur Build- Unterstützung
  * Einführung von Talend Unit Tests (Test Cases)
* Betreuung der Docker Swarm-Infrastruktur
  * Wiederherstellung einer stabilen Produktionsumgebung
  * Optimierung des Docker Clusters auf Basis von Swarm
  * Betreuung und Übergabe an Operations

Methodik und Technologien:
Talend Data Integra8on, Jenkins, Java, jUnit, GIT, Docker, Groovy, Docker Swarm, Python


09/2016 - 01/2017
Entwickler für Datenintegration - Unternehmensweiter 3rd Level Support für Talend Data Integration (DI)
OTTO (>10.000 Mitarbeiter)

* Qualitätsanalyse und Op8mierung von Talend Jobs anhand von Best Prac8ces
* Coaching
* Aufnahme, Analyse, Bewertung von Problemfällen und Change Requests
* Erstellung nachvollziehbarer Testfälle zur Nachstellung der Fehlersituationen auf Basis von Talend DI
* Analyse vorhandener komplexer Daten- und SQL-Strukturen
* Bereitstellung der Lösungen

Methodik und Technologien:
HP ALM, Cherwell ITSM, Java, Linux, Talend Data Integra8on, Teradata SQL, Oracle SQL, Exasol SQL, BMC Control-M


11/2016 - 11/2016
Entwickler und DevOps - Einführung einer Continuous Delivery Pipeline für Talend Data IntegraQon
Baumarkt Direkt (Konsumgüter und Handel, 250-500 Mitarbeiter)

* Analyse bestehender Deployment-Prozesse
* Konzeption eines Software-Lifecycle-Prozesses mit Talend DI
* Aufbau einer Continuous Delivery Pipeline mit Jenkins
  * Installation und Konfiguration eines Jenkins CI Server 
  * Integration von Talend DI Build Prozessen
  * Einführung von Talend Unit Tests (Test Cases)
  * Konfiguration des Deployments auf die Zielsysteme

Methodik und Technologien:
Talend DI, Jenkins, Java, jUnit, GIT, Apache Tomcat


10/2016 - 10/2016
Entwickler - Analyse und Erstellung eines Prototyps für CDC unter HBase
Xing (Medien und Verlage, 500-1000 Mitarbeiter)

* Analyse der aktuellen Hbase Talend Komponenten auf Change Data Capture (CDC) Funk8onalität
* Erstellung eines Prototyps mit manuellem CDC für das Einlesen von Daten aus Hbase-Tabellen
* Vorstellung des Prototyps und Entwicklungsperspek8ven für die Weiterentwicklung bestehender Talend-Komponenten

Methodik und Technologien:
Talend Big Data, Talend DI, CDC, Hbase


01/2015 - 08/2016
Entwickler - Optimierung eines vorhanden BI-Frameworks
S-Servicepartner (Banken und Finanzdienstleistungen, 500-1000 Mitarbeiter)

* Weiterentwicklung des Pentaho Frameworks
* Einführung eines Versionsmanagement-Systems

Methodik und Technologien:
Java, Pentaho Business Intelligence Server (BI), MySQL, GitLab


01/2015 - 12/2015
Entwickler - Entwicklung einer Self-Service BI-Lösung
S-Servicepartner (Banken und Finanzdienstleistungen, 500-1000 Mitarbeiter)

* Entwicklung von ETL-Prozessen zum Datenimport
* Einbindung (semi-)automatischer Korrekturmaßnahmen
* Konzeption und Erstellung geeigneter Visualisierungen (Dashboards)

Methodik und Technologien:
Pentaho DI, MDX, Saiku, MS Access, MySQL, Javascript


09/2015 - 09/2015
Trainer - Organisation und Durchführung einer MDX- Schulung
S-Servicepartner (Banken und Finanzdienstleistungen, 500-1000 Mitarbeiter)

* Einrichtung einer Schulungsumgebung
* Erstellung geeigneter Schulungsunterlagen
* Durchführung des Trainings mit Mondrian Cubes

Methodik und Technologien:
Linux, MySQL, Pentaho BI-Server, MDX, Saiku, Mondrian


01/2014 - 12/2014
Entwickler - KonzepQon und Entwicklung eines Onlineshops
Dahnke Performance (Konsumgüter und Handel, < 10 Mitarbeiter)

* Analyse und Auswahl geeigneter Shopsysteme
* Entwicklung eines Crawlers zur Datenintegration
* Weiterentwicklung und Support

Methodik und Technologien:
Python, Gambio, MySQL, PHP, HTML, CSS


Reisebereitschaft

Verfügbar in den Ländern Deutschland, Österreich und Schweiz
Profilbild von Steffen Dahnke eviit GmbH - Scrum PO / PMO und Projektleiter mit Herz aus Ahrensburg eviit GmbH - Scrum PO / PMO und Projektleiter mit Herz
Registrieren