Solution Architect | Business Analyst | Analytics | Cloud | Big Data verfügbar

Solution Architect | Business Analyst | Analytics | Cloud | Big Data

verfügbar
Profilbild von Anonymes Profil, Solution Architect | Business Analyst | Analytics | Cloud | Big Data
  • 85241 Hebertshausen b. München Freelancer in
  • Abschluss: M.Sc. Technische Universität München
  • Stunden-/Tagessatz: nicht angegeben
  • Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher)
  • Letztes Update: 18.03.2020
SCHLAGWORTE
PROFILBILD
Profilbild von Anonymes Profil, Solution Architect | Business Analyst | Analytics | Cloud | Big Data
SKILLS
  • IT-Berufserfarung seit 1999 in unterschiedlichen Rollen als Software-Entwickler, Data Engineer, IT-Architekt, Projektleiter, Teamleiter
  • Datenanalyse / Machine Learning technische Projekterfahrung seit 2012 als Principal Consultant
  • Entwicklung und Einführung von Big Data Enterprise Applikationen bei DAX Unternehmen seit 2013
  • Branchenerfahrung in Automotive, Aerospace, Manufacturing, Retail und Media
  • Gründung von zwei Startups und Konzernerfahrungen mit Stakeholdermanagement
  • Certified in Scrum, ITIL, LeSS, Professional Developer
  • B.Sc. und M.Sc. Technische Universität München
  • Haftpflichtversicherung bis 1 Mio € vorhanden

Skills und Technologien
AWS  Microsoft Azure  GCP  Google Cloud Platform  AWS EMR  Azure HDInsight  GCP Dataproc  Databricks  Hortonworks Cloudera  MapR  Kinesis  Athena  CloudSearch  AI  Firehose  QuickSight  Aurora  DynamoDB  Redshift  Data Lake Spark  TensorFlow  Golang  FUSE  Data Factory  Machine Learning  Stream Analytics  Elastic  Kibana  Event Hubs Data Explorer  Apache Beam  Dataprep  BigQuery  DWH  ETL  ELT  AutoML  Dataflow  ROS  Robot Operating System ROSBAG  Hadoop  HDFS  Minio  Canoe  CANalyzer  Vector  ETAS  MDF  ASAM  Lidar  Radar  GPS  IMU Robotics  ADAS  SAE  Sensing  Perception  Prediction  Scene Understanding  Planning  Controlling  DBC  Flexray Cosmos DB  Kubernetes  Go Golang  Ruby  JavaScript  Python  Ruby on Rails  JAMstack  IPFS
PROJEKTHISTORIE
  • 07/2019 - bis jetzt

    • OEM
    • >10.000 Mitarbeiter
    • Automobil und Fahrzeugbau
  • IT Architekt | Technischer Projektleiter | Business Analyst | Analytics und Machine Learning
  • Konzeption, Entwicklung und Betrieb einer hoch-skalierbaren Big Data Analytics Plattform für die Entwicklung ADAS und autonomes Fahren.
    Auswahl und Installation der geeigneten Technologien:
    • Hadoop (Cloudera, MapR) als verteiltes Dateisystem und Analyse Plattform 
    • TensorFlow für Training, Evaluierung und Testing von Deep Learning Algorithmen
    • Apache Spark für die parallele Verarbeitung von Sensordaten und Feature Extraktion für das Machine Learning
    • Apache Airflow als Workflow Engine
    • HUE für den einfachen Zugriff auf die Daten und Konfiguration
    • Jupyther Notebooks für Python, Scala und Anaconda für Data Science
    • HBase für die Speicherung von Verarbeitung von strukturierten Daten
    • Elastic Search für die schnelle Suche in bereits verarbeiteten Daten
    • Zookeeper als Koordinator der Platttform
    • Kubenetes und Docker für die Orchestrierung der Plattform mit Helm Skripte
    • Ansible für das automatische Provisionieren
    • CI/CD Pipeline für einen Deployment
    • NVIDIA Docker Images für den Zugriff auf die Tesla V100 Deep Learning GPUs
    • Gitlab für das Source Code Repository mit Docker Registry
    • DELL EMC Cluster
    Entwicklung weiterer Komponenten
    • Spark Datasource v2 Reader und HadoopInputFormatter für das Einlesen von ROSbags v2 ohne Konvertierung
    • Entwicklung eines FUSE Dateisystems für ROSbags zum direkten Datenzugriff
    • Entwicklung von Web UIs für die Suche in Fahrszenarien
    Entwicklung eines datengetriebenen Entwicklungsprozesses im Systems Engineering
    • Closed-Feedback-Loop Prozess für schnelles Feedback vom Erprobungsträger bis zur Datenplattform
    • Kompatibel zum SOTIF Standard, ISO/PAS 21448
    • Vergleichsanalyse zu ISO 26262 zur funktionalen Sicherheit
    Projektergebnisse
    • Mehrfache Beschleunigung der Entwicklungsgeschwindkeit (Ende-zu-Ende)
    • Kostenreduktion der Speichertechnologie durch konvertierungsfreie Datenhaltung und Analyse
    • Erhöhung der Deep Learning Model Accuracy

  • 04/2019 - 06/2019

    • OEM
    • >10.000 Mitarbeiter
    • Automobil und Fahrzeugbau
  • IT Architekt | Technischer Projektleiter | Functional Safety
  • Konzeption, Aufbau und Entwicklung eines Erprobungsträgers für die Datenaufzeichnung und Deep Learning Algorithmen Evalierung im Bereich ADAS und autonomen Fahren auf Basis vom Robot Operating System (ROS).
    Auswahl und Installation der geeigneten Technologien:
    • Robot Operating System
    • ROSbag für die Aufzeichnung der Sensordaten
    • NVIDIA für die Ausführung von Deep Learning Algorithmen
    • Ubuntu als Betriebssystem
    • ROS-Node zur Dekodierung der CAN/K-Matrix Botschaften
    • Embedded Architektur
    Auswahl der Hardware Kompontenten
    • Velodyne Lidar VLP-16 und VLP-32
    • Flir Kameras PoE
    • Novatel GPS/IMU
    • Industrie PC
    • SSD Stroage Backplane
    • CAN-Bus Gateway MQB Interface 
    Entwicklung eines datengetriebenen Entwicklungsprozesses im Systems Engineering
    • Closed-Feedback-Loop Prozess für schnelles Feedback vom Erprobungsträger bis zur Datenplattform
    • Kompatibel zum SOTIF Standard, ISO/PAS 21448
    • Vergleichsanalyse zu ISO 26262 zur funktionalen Sicherheit
    Projektergebnisse
    • Modulares System welches Plug&Play in Erprobungsfahrzeuge installiert werden kann
    • Beschleunigung der Entwicklung durch Ende-zu-Ende Datenaufzeichnung und Analyse Pipeline

  • 01/2019 - 03/2019

    • OEM
    • >10.000 Mitarbeiter
    • Automobil und Fahrzeugbau
  • Cloud Architekt | Data Engineer | Technischer Projektleiter
  • Entwicklung einer Cloud Analytics Plattform für die Analyse von Petabyte Fahrzeugdaten im Automobilumfeld.
    Auswahl und Bewertung der geeigneten Technologien:
    • Aufbau einer Datenpipeline auf AWS
      • AWS EMR als verteiltes Dateisystem und Analyse Plattform auf Basis von Hadoop
      • Spark innerhalb von EMR zur parallen Datenverarbeitung
      • Vergleich Spark auf EC2 Cluster mit Optimierung der Worker und Executors
      • AWS Lambda Funktionen zur Ausführung als Serverless Architektur
      • Jupyther Notebooks für Python, Scala und Anaconda für Data Science
      • Kubenetes und Docker für die Orchestrierung der Plattform mit Helm Skripte
      • CI/CD Pipeline für einen Deploymen
      • Aufbau einer ETL Strecke und Streaming Architektur
    • Aufbau einer Datenpipeline auf Azure
      • Azure HDInsight mit Hadoop, Spark, Kafka, HBase
      • Vergleich Spark auf Databricks
      • Zugriff auf Azure Blob Storage / Data Lake Storage im Vergleich zu Databricks Filesystem
      • Azure Functions zur Auführung von Funktionen
      • Jupyther Notebooks für Python, Scala und Anaconda für Data Science
      • Aufbau einer ETL Strecke und Vergleich Data Factory
    • Entwicklung weiterer Komponenten
      • Integration Spark Datasource v2 Reader auf AWS EMR, Azure HDInsight und Databricks
      • Parsing und Deserialization von ROSbags, ROS-Botschaften mit Golang und Scala
      • Integration von AWS S3 und Azure Blob Storage für Chunk-basierte Verarbeitung
    • Projektergebnisse
      • Hochverfügbare Cloud Analytics Plattform für Petabyte von Sensordaten
      • Kostenersparnis durch konvertierungsfreie Speicherung und Verarbeitung der Sensordaten

  • 01/2018 - 12/2018

    • Luft- und Raumfahrt Defense & Space
    • >10.000 Mitarbeiter
    • Transport und Logistik
  • Datenplattform Architekt | Data Engineering | Technischer Projektleiter
  • Konzeption, Entwicklung und Betrieb einer Big Data Analytics Platfform für Predictive Maintenance von Militärflugzeugen (NATO Restricted Classification).
    Auswahl und Installation der geeigneten Technologien:
    • Hadoop (Cloudera) als verteiltes Dateisystem und Analyse Plattform 
    • Apache Spark für die parallele Verarbeitung von Flugzeugdaten
    • HUE für den einfachen Zugriff auf die Daten und Konfiguration
    • Jupyther Notebooks für Python, Scala und Anaconda für Data Science
    • Zookeeper als Koordinator der Platttform
    • Ansible für das automatische Provisionieren
    • CI/CD Pipeline für einen Deployment
    • Bewertung und Umsetzung einzelner Use Case auf Palantir Gotham und Foundry
    • Umsetzung von einzelnen Dashboards in Palantir Slate
    Technische Projektleitung und Data Science
    • Beschafftung der Datenset von unterschiedlichen Stakeholdern
    • Abstimmung mit Data Custodian und Data Steward im Governance Modell
    • Abstimmung des Projektteams
    • Data Science Workshops mit Domainexperten zur Analysefragestellungen
    • Ingest der Daten in das Analyse Cluster
    • Data Cleansing und Datenvorbereitung
    • Analyse und Modellierung von unterschiedlichen Use Cases aus dem Fachbereich
    • Darstellung der Analyse Ergebnisse in Charts und Plots zur offenen Diskussion
    Data Engineering
    • Überführung der Entwicklung Plattform in eine produktive Umgebung
    • Stabilisierung der Spark Analysejobs durch Refactoring
    • Automatisierung der Analysejobs
    Projektergebnisse
    • Auszeichnung für herausragende Projektergebnisse bis zum C-Level
    • Bereits im ersten Jahr Gewinnung von Kunden mit neuen Service Angebotsportfolio

  • 01/2017 - 12/2017

    • Automobilbranche
  • Data Analyst | Technischer Projektleiter | Product Owner
  • Konzeption und Durchführung von mehreren Big Data Analytics Projekten im Automobilumfeld.
    Auswahl und Installation der geeigneten Technologien:
    • Hadoop (Hortonworks) als verteiltes Dateisystem und Analyse Plattform 
    • Apache Spark für die parallele Verarbeitung von Flugzeugdaten
    • HUE für den einfachen Zugriff auf die Daten und Konfiguration
    • Jupyther Notebooks für Python, Scala und Anaconda für Data Science
    • Zookeeper als Koordinator der Platttform
    • Ansible für das automatische Provisionieren
    • CI/CD Pipeline für einen Deployment
    • Bewertung und Umsetzung einzelner Use Case auf Palantir Gotham und Foundry
    • Umsetzung von einzelnen Dashboards in Palantir Slate
    Technische Projektleitung und Data Science
    • Beschafftung der Datenset von unterschiedlichen Stakeholdern
    • Abstimmung mit Data Custodian und Data Steward im Governance Modell
    • Abstimmung des Projektteams
    • Data Science Workshops mit Domainexperten zur Analysefragestellungen
    • Ingest der Daten in das Analyse Cluster
    • Data Cleansing und Datenvorbereitung
    • Analyse und Modellierung von unterschiedlichen Use Cases aus dem Fachbereich
    • Darstellung der Analyse Ergebnisse in Charts und Plots zur offenen Diskussion
    Data Science
    • Zusammenarbeit mit den Fachabteilungen
    • Konzeption- und Anforderungenanalyse
    • Durchführung von Data Workshops mit dem Fachbereich
    • Schnittstelle zwischen Fachbereich und Data Science
    Projektergebnisse
    • Erfolgreiche Projektdurchführung mit Folgebeauftragungen

  • 07/2015 - 12/2016

    • Automobilbranche
  • IT Architekt | Product Owner | Technischer Projektleiter
  • Konzeption, Entwicklung und Betrieb einer Big Data Analytics Plattform für die Messdatenanalyse, Simulation, Testing, Validierung, Machine Learning für die Entwicklung von Fahrerassistenzsysteme (ADAS) und Autonomes Fahren.

    Technologien: Hadoop Ecosystem, Java, JavaScript, HTML, CSS, Angular, ElasticSearch
    Methoden: Software Architektur, Requirements Engineering, MVP, Wireframes, Prototypen, Testcases



  • 01/2014 - 06/2015

    • DAX Unternehmen
  • Solution Architekt | Technischer Projektleiter
  • Konzeption, Entwicklung und Betrieb einer Big Data Dokumenten Plattform.

    Technologien: Hadoop Ecosystem, Java, JavaScript, HTML, CSS, Angular, ElasticSearch
    Methoden: Software Architektur, Requirements Engineering, MVP, Wireframes, Prototypen, Testcases

  • 01/2013 - 12/2013

    • DAX Unternehmen
  • Data Science | Data Engineering
  • Durchführung von mehreren Data Science und Data Engineering Projekten für verschiedene DAX Unternehmen.
    • Beschafftung der Datenset von unterschiedlichen Stakeholdern
    • Abstimmung mit Data Custodian und Data Steward im Governance Modell
    • Abstimmung des Projektteams
    • Data Science Workshops mit Domainexperten zur Analysefragestellungen
    • Ingest der Daten in das Analyse Cluster
    • Data Cleansing und Datenvorbereitung
    • Analyse und Modellierung von unterschiedlichen Use Cases aus dem Fachbereich
    • Darstellung der Analyse Ergebnisse in Charts und Plots zur offenen Diskussion
    Data Science
    • Zusammenarbeit mit den Fachabteilungen
    • Konzeption- und Anforderungenanalyse
    • Durchführung von Data Workshops mit dem Fachbereich
    • Schnittstelle zwischen Fachbereich und Data Science
    Technologien: Hadoop Ecosystem, Python, JavaScript, HTML, CSS
    Methoden: Prozess durch durchgängigen Datenanalyse

  • 08/2012 - 12/2012

    • DAX Unternehmen
  • Principal Consultant | Software Engineering
  • Produktentwicklung einer Digital Signage Lösung.

    Technologien: Java, JavaScript, HTML, CSS, SMIL, SVG, RPC, RubyOnRails
     


  • 07/2011 - 07/2012

    • Medienbranche
  • IT Architektur | Product Owner
  • Konzeption und Umsetzung einer digitalen Publikationensplattform.

    Technologien: ActionScript, Flash, Objective-C, HTML, CSS, JavaScript
     


  • 03/2011 - 06/2011

    • Medienbranche
  • Software Engineering | Technische Projektleitung
  • Konzeption und Umsetzung eines Archivs für digitale Publikationen.

    Technologien: ActionScript, Flash, Objective-C, HTML, CSS, JavaScript


  • 06/2010 - 02/2011

    • Startup
  • Software Engineering
  • Entwicklung eines dezentralen Sozialen Netzwerks.

    Technologien: Ruby, RubyOnRails, HTML, CSS, JavaScript, Bootstrap, Backbone.js


  • 01/2010 - 05/2010

    • Startup
  • Software Engineering
  • Konzept und Entwicklung einer web-basierten Lernumgebung für visuelle Lerntechniken.

    Technologien: Ruby, RubyOnRails, Objective-C, HTML, CSS, JavaScript
     


  • 09/1999 - 12/2009

  • Weitere Referenzen gerne auf Anfrage

ZEITLICHE UND RÄUMLICHE VERFÜGBARKEIT
Verfügbar in München und Umgebung bis 100km und Remote.
Tagesreisen innerhalb von Deutschland möglich.
SONSTIGE ANGABEN
Ich freue mich auf Ihre Anfrage.
KONTAKTANFRAGE VERSENDEN

Nachricht:

Absenderdaten:

WEITERE PROFILE IM NETZ