Schlagwörter
Skills
- Deep Learning (CNNs, Transformers, Autoencoders etc.)
- Computer Vision / Bildverarbeitung (Image Classification, Object Detection, Semantic Segmentation etc.)
- Natural Language Processing (Text Classification, Information Extraction, Syntactic Parsing etc.)
- C++, C, Python
- Tensorflow, PyTorch, OpenCV, Scikit-Learn
- AWS, Docker, Git, MLFlow, CI/CD, pySQL
- Big Data Technologies
Projekthistorie
-
Durchführung einer vorläugen Machbarkeitsstudie für eine automatische Fehlererkennung basierend auf komplementären Ansätzen des überwachten Lernens und der Anomalieerkennung.
-
Entwicklung einer semi-automatischen Routine für Datenannotation (Python, OpenCV, TKInter).
-
Implementierung mehrerer Modellarchitekturen und Trainingssoftware (Python, Tensorflow) für die Aufgaben der semantischen Segmentierung und Anomalieerkennung.
-
Training und Evaluierung mehrerer Modelle auf den (annotierten) Daten.
-
Implementierung einer C++ Bibliothek für die Modellinferenz in der Zielumgebung.
Eingesetzte Technologien: Python, C++, Tensorflow, Scikit-Learn, OpenCV, Docker, Git, Visual Studio Code, Xcode.
-
Projektplanung und Ausführung rund um den gesamten Lebenszyklus einer Modellentwicklung einschließlich Datenannotation, Training, Evaluierung und Integration.
Konzeptentwicklung eines optischen Prüfsystems gegeben spezische Anforderungen an die Speicherkapazität und Inferenzzeiten.
-
Betreuung des Teams für Datenannotation.
-
Implementierung von mehreren Modellarchitekturen (126 unterschiedliche Modelle) und von der Trainingssoftware (Python, Tensorflow) für unterschiedliche Bildverarbeitungsaufgaben wie Klassifikation, Objektdetektion, semantische Segmentierung und optische Messung.
-
Training und Evaluierung von mehreren Modellen auf den annotierten Daten.
-
Zusammenführung mehrerer Architekturen zu einem Modell und Export in Protobuf-Format.
-
Reduktion des Speicheraufwands und der Inferenzzeit des finalen Modells entsprechend den Hardware-Vorgaben.
-
Definition einer Schnittstelle für Modellaufrufe auf den Bildern, die von der SPS-Software (für Steuerung eines Roboterarms mit einem Kamerakopf) bereitgestellt werden.
-
Implementierung einer C++ Bibliothek für die Modellinferenz und Export als DLL (Dynamic Link Library).
Eingesetzte Technologien: Python, C++, Tensorflow, OpenCV, Docker, Git, common annotation software (CVAT, V7 etc.), Microsoft Visual Studio (Windows), Visual Studio Code (Mac), Xcode, CI/CD (automatic script for creating a DLL from source code and trained model), Doxygen, LateX, PowerPoint.
-
Implementierung eines neuronalen Netzes zur Klassifikation von Verkehrszeichen.
-
Training des Klassifikationsnetzes auf einem annotierten Datensatz.
-
Implementierung der bestehenden state-of-the-art Erklärungsalgorithmen.
-
Modifikation und Verbesserung bestehender Erklärungstechniken mit dem Ziel einer genaueren Analyse.
-
Implementierung von adversariellen Angriffen auf das trainierte Netz durch spezische Bildmanipulationen.
-
Erkennung von adversariellen Angriffen basierend auf dem verbesserten Erklärungsalgorithmus.
Eingesetzte Technologien: Python, Tensorflow, Scikit-Learn, OpenCV, Docker, Git, Visual Studio Code, PowerPoint.
-
Entwurf einer Lösung zur Validierung der grammatikalischen Struktur von Textdokumenten basierend auf verschiedenen NLP-Bausteinen, darunter syntaktisches Tagging, Parsing, Named-Entity-Recognition und Word-Embeddings.
-
Implementierung einer Python-Bibliothek zur Überprüfung der Textdokumente nach einem Satz individueller Grammatikregeln, unterstützt durch zugehörige NLP-Modelle.
-
Definieren einer JSON-Schnittstelle für die Validierungsergebnisse (einschließlich automatisierter Korrekturvorschläge), die vom Integrationsteam verwendet wird, um potenzielle Regelverstöße im Text zu identizieren.
Eingesetzte Technologien: Python, NLTK, spaCy, Git, Visual Studio Code.
-
Semi-automatische Erweiterung der annontierten Daten durch Clustering-Methoden.
-
Implementierung einer Trainingssoftware unter Einsatz von Scikit-Learn (Python).
-
Feature-Engineering und Training der Modelle (SVMs, Random Forest, etc.) auf einem annotierten Datensatz.
-
Evaluierung der Performanz der trainierten Modelle und Bewertung der entwickelten Lösung.
Eingesetzte Technologien: Python, Scikit-Learn, Atom, PowerPoint.