Profilbild von Sven Badalyan Data Science, Robotik, AI, Machine Learning, OCR, Computer Vision, NLP, Optimierung, IoT, Jetson aus Berlin

Sven Badalyan

verfügbar

Letztes Update: 27.01.2023

Data Science, Robotik, AI, Machine Learning, OCR, Computer Vision, NLP, Optimierung, IoT, Jetson

Abschluss: Mathematik Bachelor und Master mit bester Note 1.0 an der Humboldt-Universität zu Berlin
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: deutsch (Muttersprache)

Skills

For more information please visit my own personal homepage: badalyan.it

Programming Skills:
Robotik / Data Science
• Python, R, C, C++
• NumPy, Tensorflow, Keras, PyTorch
• Convolutional Neural Networks (CNNs)
• Recurrent Neural Networks (RNNs)
• Long Short-Term Memory Networks (LSTM)
• Reinforcement Learning
• Scikit-learn
• Object Detection: Yolo, OpenCV, ReID
• PyTesseract
• OpenPose, Image Pose, tf-pose, trt-pose
• Pandas, SQL
• Docker
• CUDA, Cudnn
Matlab
• Statistik and Machine Learning Toolbox
• Optimierung Toolbox
• Partial Differential Equation Toolbox
Latex
• Beamer, PGF/TikZ
MS Office
• Word, Excel, Powerpoint
HTML & CSS
Vim, Nano
Linux, Mac OS, Windows


Programmierkarriere: Mehr als 10 Jahre Programmiererfahrung
• 2009: Auswahl von Compute Science Schulklassen, Erstellung meiner ersten Anwendungen mit der Programmiersprache "Delphi".
• 2010: Programmierung einer kleinen HTML-Website für die Schule.
• 2011: CAS Mathematics wählen, mathematische Algorithmen auf dem Computeralgebra-System "Derive" lösen, eigene Löser fürWurzelprobleme schreiben.
• 2012: Eigene Regressions-App schreiben, die zu den Messungen meiner Physik-Experimentalvorlesungen passt.
• 2013: Python für die Universitätskurse lernen, praktische Apps mit meiner Universität schreiben, um unsere Hausaufgaben leicht lösen zu können.
• 2014: Entwicklung einer Website mit HTML, CSS und JavaScript für meinen Professor.
• 2015: Schreiben einer eigenen Finite-Elementerealistischen Simulationssoftware in Matlab, die eine sehr starke mathematische Intuition und Kenntnisse erfordert.
• 2016: Schreiben von FEM-Simulationscodes in Python unter Verwendung sehr moderner Matrix-Vektor Linear Algebra Computational C++ Module.
• 2017: Die Verwendung von Jupyter Notebook, Latex und Python zum Schreiben meiner Bachelorarbeit in Mathematik, die zu 70% kodiertwar, fand numerisches schlechtes Verhalten in der Theorie der Mathematikarbeit, die für meine Bachelorarbeit verwendet wurde, für die ich belohnt wurde durch meinen Professor.
• 2017: Vollendung Machine Learning I an der Technischen Universität Berlin.
• 2018: Vollendung Machine Learning II an der Technischen Universität Berlin.
• 2018: Vollendung von Deep-Learning-Kursen an der Freien Universität Berlin.
• 2018: Vollendung von Python-Programmierung für Deep- Learning-Kurse an der Technischen Universität Berlin.
• 2019: Deep Learning an der Technischen Universität Berlin.
• 2019: 11 Monate permanent Python, Matlab, Java Codes für meine Masterarbeit in Mathematik schreiben, mehr als 50% der Arbeit war der Programmierteil, mit meinen numerischen Experimenten neue Ergebnisse im Bereich Neuronale Netze und Differentialgleichungen gewonnen.

Projekthistorie

07/2022 - bis jetzt
Senior Computer Vision Expert
Testo SE & Co. KGaA (1000-5000 Mitarbeiter)
Ziel des Projekts ist, die Bakterien und deren Anzahl auf einer Membran durch einen Mikroskopen zu ermitteln. Dabei geht das Mikroskop durch die Z-axis in die Tiefe und nimmt Querschnittsfotos von Bakterien auf. Die KI soll dann den Ort und die Anzahl der Bakterien ermitteln. Ebenso wurde das Mikroskop durch automatische Algorithmen Data-driven kalibriert.
• Datenverarbeitung durch advanced OpenCV Techniken.
• Versuchen, das Projektziel mit mehreren Ansätzen zu erreichen:
• Optimierung der Codes, um mit TensorRT schneller auf Jetson Nano zu arbeiten.
• Background Subtraction, image deblurring, image sharpening, image cropping.
• Erzeugung von halbautomatischen Trainingsdaten (data labelling), manuelle Arbeit aufs Minimum reduziert.
• Erzeugung von hochperformantem Maximum Intensity Projection (MIP) algorithmus auf Jetson Nano.
• Erzeugung von automatischen Sortierungsalgorithmen, die die leeren z-axis Bilder weg extrahiert. Dabei wird adaptiv vorgegangen damit das kleine IoTGerät nicht alle Bilder vom SSD Speicher herausliest, sondern nutzen von physikalischer Kontinuität um den geeigneten z-axis Bereich zu finden.
• Nutzen von Segmentierungs Techniken um die KI mit kleinen Bildern zu füttern, umRAMSpeicher zu sparen, damit das Gerät lauffähig bleibt. Die leeren patches werden durch density-criteria eliminiert und nicht mehr der KI eingegeben.
• Density Graph approach zur Klassifizierung der Bakterien nach ihrer Dichte.
• Training von yolo5 Deep Neural Networks auf MIPs und die z-axis frames, dabei werden IoUs genutzt um die relevanten Bakterien Bounding Boxes zu extrahieren.
• Den Decoder von yolo Netzen von Python in C optimieren.
• Mehrfach vorkommende Bakterien voneinander trennen durch Non-Max-Surpression und anderen clustering basierten Techniken.
• Kombinieren von klassischen und Neural Network-Ansätzen.
• Nutzen von Data Driven Hyperparameter Optimierungstechniken.
• Nutzen von Knowledge Distillation Techniken um die yolo-KI fast vierfach zu verkleinern und damit ebenso vielfach zu beschleunigen.
• Finale KI Beschleunigung auf Jetson durch Konvertierung in TensorRT (CUDA).
• Production Code, Testen durch Pytest, automatische Report-Erstellung.
• Erreichung von 99%-iger Vorhersage der Anzahl und eine zuverlässige Lokalisierung der Bakterien (siehe Bilder links). Ebenso eine schnelle Arbeitsweise der KI auf den kleinen Jetson Nanos (Experiment dauert ca. 10 Sekunden im Vergleich zu den alten Codes, die ca. 30 Minuten brauchten).

03/2022 - 01/2023
Image Processing Expert
alm engineering GmbH (10-50 Mitarbeiter)
Entwicklung einer KI, die vorhersagt, ob das Eingabebild ästhetisch ist oder nicht.
• Erstellen von Multimodell-KI, bei der die Vorhersage von der Qualität und dem Inhalt der Eingabebilder abhängt.
• Verwenden, Entwickeln und Optimieren des Feature-Extractors, der für die Ästhetik der Eingabebilder verantwortlich ist.
• Analysieren und Bereinigen von Trainingsdaten (80k) und großen Testdaten (Big Data-Probleme).
• Nutzen von DataAugmentation Techniken: denoising, cropping, rotation, scaling, aesthetic to non-aesthetic shifts, sharpenings und weitere OpenCV image processing Techniken.
• Sammeln von Validierungsdaten um die KI zu benchmarken.
• Ausprobieren verschiedener ML-Techniken (z. B. dimensionality Reduction) für die Transformation extrahierter Merkmale
• Erstellen von Custom Head-Netze für Bildklassifizierung.
• Nutzen von Inception Resnet basierten Backbones.
• Backbone Optimierung: Verwendung von Knowledge- Distillation zur Techniken zur Verkleinerung der KI Gewichten.
• Einbauen von abtrakten CNN Feature Extraktoren um die Feature Komponente in Head Netz informationsreicher zu machen, KI Robustheit verbessern.
• Nutzen von genetischen Algorithmen (Selection, Cross Over, Mutaion, Fitness Score) um den grossen Feature Vectore zu verkleinern, nur wesentliche Komponenten zu behalten, damit PCA durch nichtlineare NP-Hard Techniken verbessern.
• Verwendung von explainable AI-Techniken (SHAP, LIME, LRP), um Vorhersagen interpretieren zu können und ggf. Verbesserungen kontrolliert zu erzwingen.
• Data Augmentation für Trainingsdatensätze zum Erstellen sensibler Modelle und für einen Testdatensatz zum Überprüfen der Empfindlichkeit des Modells.
• Production Level Programmierung, Projekt Serverbereit machen.
• Erreichen von 96 %-igen Resultates der Ästhetik Vorhersage auf einer Stichprobe von >700 Probanden.

06/2022 - 11/2022
Senior AI Engineer
DAYIANA GmbH (50-250 Mitarbeiter)
Brustkrebs ist eine der häufigsten krebsbedingten Todesursachen bei Frauen und damit eine universell und ein äußerst wichtiges Thema. Zur Zeit, die Mammographie ist der einzige bildgebende Test, der die Brustkrebsmortalität reduziert hat. Das Ziel des Projekts war die Entwicklung eines auf Neural Network basierenden Algorithmus zur Erkennung, Klassifizierung und Segmentierung von Brusttumoren anhand von mamografischen Röntgenbildern, um so die Leistung von Radiologen bei der Brustkrebsvorsorge zu verbessern und das Ziel zu erreichen, viele Leben zu retten. Mehrere Techniken des Machine Learning wurden verwendet, um sich dem Ziel zu nähern und eine Lösung zu konstruieren.
• Data Mining, Data Processing.
• Nutzen von Normalisierungstechniken und patching für large scale Röntgen Aufnahmen.
• Trainieren auf DDSM, InBreast, SF University Daten
• Forschung, um die besten Neural Networks für die Krebserkennung zu finden.
• Arbeiten mit Heatmaps für gut und bösartigen Tumoren.
• Nutzen von Segmentation Techniken. Nach der Auswahl der Maske R-CNN als Basismodell erfolgt eine sorgfältige Prüfung des Modells, Adaptierung der Maske zu den Trainingsdaten.
• Maske R-CNN Kombinierung mit Yolo Modellen.
• Bauen von customized Mask-RCNN Modellen mit PyTorch, aenderung der IOU Parameter, Optimierung der Backbones für eine erleichterte Praediktion.
• Nutzen von eigens geschriebenen automatischen Grid Search Algorithmen, um beste threshold Parameter zu finden.
• Kombinierung von Klassischen SVM Modellen mit den Deep Learning Modellen.
• Einbauen von Sensitivity und Precision Metriken.
• Professionelles Level der Krebserkennung erreicht, state of the art Resultate.

04/2022 - 10/2022
Robotik/KI/Data Science Experte
Gerhard Schubert GmbH (1000-5000 Mitarbeiter)
Das Problem beschäftigt sich mit Roboterarm - Optimierung via KI. Der Roboter Arm soll durch die gegebenen Punkte Zeit-optimal durchlaufen. Für jedes angehängte Gewicht (cargo) soll der Roboterarm die optimale Trajektorie selbst bestimmen. Mathematisch ist es ein (Constraint) Optimal-Control Problem, welches durch KI approximiert wird. Mein selbstentwickeltes Neuronale Netz konnte anhand der physikalisch korrekt modellierten Hilfsberechnungen dieses Problem lösen.
• Paper research in "Optimiaziotn and Neural Networks", "ODE and Neural Networks", "Optimal Control problem via Neural Networks" etc.
• Simulierte Datengenerierung basierend auf Klassischer Mechanik, Data Processing, Data normalization
• Konvertierung von originalen Matlab Files in Numpy
• Konstruktion von Residualen, LSTM und anderen Neuronalen Netzen, best choice
• Pretraining durch Autograd, Integrate und Mathematische Skalierungen
• Data Enrichment via Cubic Splines
• OOP und produktiver Code

11/2021 - 04/2022
Data Science- und Optimierungs- Experte
Zalando SE/Mindfuel GmbH (>10.000 Mitarbeiter)
Die Aufgabe ist für einen großen Konzern die freie Luft in gesendeten Paketen zu minimieren. Dadurch minimiert man den CO2-Ausstoß, ebenso die Transportkosten. Desweiteren schreiben einer Python-API, die das Packing visualisiert damit die Mitarbeiter Pakete optimal einpacken. Mein Ergebnis brachte 20% effizienteres Packen.
• Entwickeln einer Problem-Lösungs-Strategie.
• Task-Verteilung wer welchen Part macht.
• Anwenden von mathematischen nichtlinearen Optimierungstechniken für NP-hard Probleme.
• Ansatz über einen Evolutionsalgorithmus erfolgreich, statt 3 Wochen wurde in 4 Tagen geliefert.
• Alle For-Loops aus dem Evolutionsalgorithmus entfernen, 10xBoost.
• Für den Evolutionsalgorithmus eine Numpy Variante schreiben, 50xBoost.
• Für den Evolutionsalgorithmus eine AWS-CUDA Variante schreiben, 20xBoost.
• Effiziente Mutation- und Breeding- Methoden entwickelt.
• Entwicklung von Clustering Methoden als Anfangspopulation.
• Data sampling, Dimensionsreduktion, Datenapproximation, statt 1Mio nur 10k Daten genutzt, Algorithmus 100x Boost.
• Benchmarking via MILP Optimierer.
• Benchmarking via deterministische Diskretisierung, nutzen von CUDA auf AWS, mein Resultat nur 0,5% Abweichung vom NPHard- Optimum, sehr gutes Resultat.
• Code in OOP-Form birngen, benutzerfreundlich machen.
• Visualisierungstools genutzt um das Ergebnis intuitiv zu veranschaulichen, Metriken entwickelt anhand deren klar wurde um wie viel die neuen Resultate besser sind.
• Brainsorming via Miro-Boards.
• Echtzeit Gruppenarbeit via Notion.
• Papers lesen, neue Methoden entwickeln und implementieren.
• Via Python-Tkinter schreiben einer Python-API, die das Packing visualisiert damit die Mitarbeiter Pakete optimal einpacken.

09/2020 - 03/2022
Senior Data Scientist, Projektmanager, CTO
smart AAL/Mentoring GmbH (10-50 Mitarbeiter)
Entwicklung von kleinen Smart-Home Assistenten, die das Leben der Pflegebedürftigen Menschen erleichtern. Der Roboter Werner erkennt Gefahren wie Feuer oder Stürze und sendet eine SOS an die Hilfestelle. Er ist fähig anhand der Daten des Patienten Verhaltensanomalien zu erkennen, z.B. wenn der Patient anfängt mehr und mehr Demenz-Verhalten aufzuweisen.
• Schreiben einer KI die das Verlassen aus der Wohnung erkennt und das Wetter an das Handy sendet.
• Erkennung des Personenskeletons. Die Skeleton-KI ca. 1200-mal schneller machen und dadurch möglich machen in Jetson-Nanos zu deployen, Platz für weiteren solchen 5 KI ersparen.
• Verwenden von Bild-zu-Bild-Suchtechniken, um dieselben realen Punkte zu identifizieren.
• Tiefenerkennung KI. Kalibrieren der Stereokamera mit Hilfe der OpenCV Stereocalibrate-Funktion.
• Schreiben von Gesichtserkennung AI, berechnet die Entfernung des Gesichts vom IoT-Gerät, verwenden von eine eigens entwickelte erweiterte Disparity-map-funktion, wandelt die Ergebnisse der Disparity-map in die reale Entfernung um und macht sie robust. Verwenden von Histogrammgrafiken, um die beste Entfernung zum Gesicht zu wählen.
• Entwickeln einer Human-ID und ReID-Erkennungs-KIs, Erkennen mehrerer Personen im Kamera-frames und Zählen der Personen, die sich im Raum aufhalten.
• Schreiben einer eigenen Fall-detection-KI, die PoseNet zur Erstellung von Eingabedaten und CrossEntropy Loss zur Klassifizierung der Posen verwendet: Stehen, Fallen, Liegen, Sitzen usw.
• Umwandlung von PyTorch-Netzen in leistungsstarke Tensor-RTNetzwerke in Cuda, wodurch die Inferenz von IoT-Geräten viel schneller wird, ca. 4-10 mal.
• Entwicklung einer geeigneten, leichtgewichtigen KI für den Jetson Nano. Verwenden von evolutionären Algorithmen, um das fitteste Netz zu wählen.
• Konvertieren der trainierten KIs in die NumpyML-Architektur, um Speicher und Geschwindigkeit auf dem IOT-Gerät zu sparen.
• Entwickeln von Docker-Containern, in dem sich die Tiefenerkennungs-KI containerbasiert befindet, um diesen Container für andere Container zugänglich zu machen.
• Leitung eines Teams von 12 Mitgliedern unter Anwendung von Scrum-PM-Techniken, Ausbildung des Data Science Astes der Firma.

08/2021 - 01/2022
Data Science Experte, Algorithmen Entwickler
Obeta GmbH (1000-5000 Mitarbeiter)
Hier war meine Rolle zunächst als Data Science Consultant, danach bin ich als Algorithmen-Entwickler tätig gewesen. Meine Hauptrolle war Herausfinden neuer Use-Cases und deren Umsetzung bis hin zur Produktivität, neue Algorithmen entwickeln, alte Verbessern. Lösungswege erstellen zum Bin-Packing Problem. Transportkosten optimieren.
• Teamarbeit, Aufgabenteilung
• Text Extraktion KI
• Customer Churn untersuchen
• Datenaufbereitung, Data Engineering
• Algorithmen entwickeln, NP-Hard Probleme angehen, Papers lesen, Ansätze finden, mit Team besprechen
• Firmenroboter untersuchen, Arbeit optimieren
• Erzeugen angepasster Daten, mehr Daten von der Firma herausmachen um die Use Cases zu erweitern
• Ergebnisse professionell vorstellen

03/2021 - 06/2021
Data Science Experte, Data Engineer
TomCom GmbH (50-250 Mitarbeiter)
Entwicklung eines Softwaretools für die Fahrzeugregistrierung, das die gewünschten Textfelder extrahiert und in der Cloud speichert. Die KI ist selbstlernend und wird intelligenter, da immer mehr Online-Daten durch die Anwendung kommen. Es beschleunigt die Digitalisierung der Kfz-Zulassung.
• Kombination klassischer Bilderkennungstechniken mit modernen neuronalen Netzansätzen
• Datendesign, Data Mining, Date-mining
• Verwendung mathematischer Statistiken zur Datenaufbereitung und Datenbereinigung
• Verwenden von Bilderkennungstools: OpenCV -> Finden von polygonalen Formen, Extrahieren relevanten Bereichen
• Verwendung von pytesseract und Deep Learning-Techniken zur Texterkennung -> NLP
• Aufbau von Deep Auto-Encodern für die Dimensionsreduktion und Rauschunterdrückung der Daten
• Entwicklung des neuronalen Netzes für das überwachte Lernen mit benutzerdefinierten Kostenfunktionen und benutzerdefinierten Layers
• Verwendung von Reinforcement Learning, die es der KI ermöglichen, aus instant-online-Daten zu lernen
• Verwendung von Convolutional Neural Networks (CNNs)
• SSH-Verbindung und lokale Cloud-Computing-Infrastruktur, die mit AWS und Google Cloud arbeitet

04/2020 - 12/2020
Senior Data Scientist und Data Analyst
Franz Habisreutinger GmbH & Co. KG (500-1000 Mitarbeiter)
Entwicklung einer OCR für Rechnungserkennungssoftware, die auf Fehler in der Rechnung prüft
• Kombination klassischer Bilderkennungstechniken mit modernen neuronalen Netzansätzen.
• Data Mining, Data-Tracking
• Verwendung mathematischer Statistik zur Datenaufbereitung und Datenbereinigung.
• Schreiben einer effizienten SQL-Command-Suchfunktion, um die Arbeit zu erleichtern.
• Bilderkennungstechniken via OpenCV anwenden.
• Verwendung von Deep-Learning-Techniken zur Texterkennung auf der Rechnung
• Bauen von Deep Auto-Encodern für die Dimensionsreduktion und Rauschunterdrückung der Daten.
• Entwicklung des neuronalen Netzes für das supervised- Learning mit benutzerdefinierten Losses und benutzerdefinierten Layers.
• Verwendung von Reinforcement Learning, die dem Arbeiter vorschlagen, was im nächsten Schritt zu tun ist.
• Verwendung von Convolutional Neural Networks (CNNs) für eine bessere Logo-Erkennung.
• Testen der Software im realen Anwendungsfall.
• Transport des Codes zum Webserver, Einrichtung einer effizienten SSH-Verbindung und lokaler Cloud-Computing-
Infrastruktur.

01/2020 - 09/2020
Data Science Consultant, AI-Entwickler
Sopra Steria Group SA (>10.000 Mitarbeiter)
Beratung für ein SAP-Addon, das die richtige Quote der Rechnungen prognostiziert und dem Mitarbeiter den Kontingentprozess erleichtert, das Addon die Arbeitsweise des Mitarbeiters individuell lernt und immer bessere Vorhersagen macht, welche Rechnungen zu welchem Kontingent gehören.
• Entwicklung eines einfachen und eines komplizierteren Prototyps.
• Kopplung von Reinforcement Learning und Supervised Learning-Techniken miteinander, wodurch vergangene Daten und aktuelle Daten effizienter für das On-Fly-Lernen genutzt werden.
• Process Mining, Data Mining, Datenaufbereitung, Datenclustering mit EM-, ICA-, PCA-Techniken.
• Verwendung mathematischer Statistik für unüberwachtes Lernen (unsupervised Learning) und Clustering-Methoden.
• Dimensionalitätsreduktion der Daten mit Deep Autoencoder, Verwendung von Rauschunterdrückungstechniken im Autoencoder durch Programmierung eigener benutzerdefinierter Tensorflow-Blöcke.
• Schreiben von Python- und JavaScript-APIs, umdie Übertragung zwischen dem SAP-Addon und dem Python-Skript mit der KI zu ermöglichen.
• Dockerizing der Anaconda-Umgebung, Einrichten einer virtuellen Umgebung auf dem Server.
• Nutzung von BigData-Technologien wie Spark zumAufbau einer schnellen und effizienten Cluster-Computing-Umgebung.
• Verwendung von Kafka Stream APIs, um ein schnelles und effizientes Lernen zwischen der Verstärkungs- und der Supervised Learning KIs auf der einen Seite und der Datenübertragung vom Benutzer zur KI auf der anderen Seite zu ermöglichen.
• Nutzung von Cloud-Computing-Plattformen wie AWS, um das Trainingsverfahren von KIs zu verbessern.

02/2020 - 08/2020
Senior Data Scientist und AI-Developer
IT-company yuvedo GmbH from Berlin (10-50 Mitarbeiter)
Entwicklung einer KI für eine medizinische Anwendung (Parkinson- Krankheit), die dem Patienten das optimale Verhalten vorschlägt, um seine Gesundheitsziele zu erreichen und zu verbessern.
• Kopplung von Supervised Learning mit Reinforcement Learning, um das Online-Lernen der Patientenbedürfnisse zu ermöglichen und dem Benutzer sofortige Vorschläge zu unterbreiten.
• Process Mining, Data Mining, Date-tracking.
• Verwendung mathematischer Statistik zur Datenaufbereitung und Datenbereinigung.
• Erstellung synthetischer Daten, um die KI zu stärken und die Hauptarchitektur der KI zu finden, die unsere Originaldaten
genauer lernt.
• Prüfen Sie mit den synthetischen Daten, was benötigt wird, um die Supervised Learning KI und die Reinforcement Learning KI zu koppeln.
• Bilden von Deep Auto-Encodern für die Dimensionsreduktion und Rauschunterdrückung der Daten.
• Entwicklung des neuronalen Netzwerks für das überwachte Lernen mit benutzerdefinierten Losses und benutzerdefinierten Layers unter Verwendung selbsterfundener und effizienterer benutzerdefinierter neuronaler Netzwerkarchitekturen in Tensorflow.
• Entwicklung des neuronalen Netzes für das Reinforcement Learning mit benutzerdefinierten Losses und benutzerdefinierten Layers.
• Verwendung von Recurrent Networks Architecture (RNNs) für Zeitreihen (Time Series) in Kombination mit Convolutional Neural Networks (CNNs).
• Verbinden des Supervised Learning und des Reinforcement Learning Netzen miteinander, um die Beziehung zwischen Patient und Arzt zu simulieren, was der KI hilft, dem Patienten realistische und nützliche Vorschläge zu machen.
• Transport der KI zum Webserver, Einrichtung einer lokalen Cloud-Computing-Infrastruktur mit fortschrittlichen GPUs und
effizienter SSH-Verbindung.
• Erstellen von BigData-Pipelines mit Hadoop und Spark, um Parallel- und Cluster-Computing zu ermöglichen, was hilft, die besser geeigneten neuronalen Netzwerkmodelle zu finden.

02/2018 - 12/2019
Data Scientist und AI-Developer
psaichology.org aus Berlin (10-50 Mitarbeiter)
Durch Anpassung psychologischer Modelle an die KI lernt diese KI z.B. dem Verbraucher basierend auf seinem Verhalten maßgeschneiderte Vorschläge zu geben.
• Erstellen synthetischer Daten, um echte und gefälschte Persönlichkeiten aufzubauen.
• Verwenden von GANs, um mehr synthetische Daten zu generieren, wodurch unrealistische Daten erzeugt werden, die
das neuronale Netz später zwischen dem Original und dem gefälschten unterscheiden kann, was die Netze gegenüber gegnerischen Beispielen robuster macht.
• Data Mining, Data-tracking, Datenanalyse, Datenaufbereitung, Datenoptimierung.
• Deep Autoencoder verwenden, um die Daten zu entrauschen.
• Datenclustering/Dimensionsreduktion mit statistischen Tools, selbstgeschriebener Code+Python-Pakete Pandas, unter Verwendung von R.
• Design und Erstellung geeigneter neuronaler Netze, Hyperparameter-Tuning.
• Ich habe mein mathematisches Denken und Wissen stark genutzt, um die richtigen Optimierungstechniken auszuwählen, wobei sehr innovative Ideen zu neuronalen Netzen verwendet wurden, die ich in meiner Masterarbeit entwickelt habe.
• Verwendung moderner automatisierter Tools wie AutoML, um das Hyperparameter-Tuning autonomer durchzuführen, unter Verwendung von Grid-Techniken für die Suchprozesse auch für die Aktivierungsfunktionen.
• Nutzung von Cloud-Computing-Plattformen: AWS, Azure.
• Schreiben, Ausführen und Debuggen von selbstgeschriebenen benutzerdefinierten neuronalen Netze Programmen unter Verwendung verschiedener ML-Bibliotheken: TensorFlow, PyTorch.
• Erfolgreiche Validierung selbstgeschriebener neuronaler Netze, neues Ergebnis in der theoretischen Psychologie.

Zeitliche und räumliche Verfügbarkeit

  • Reisebereitschaft Europaweit

Sonstige Angaben

Bitte zuerst per Email versuchen, da ich telefonisch nicht jederzeit erreichbar bin.

Kontaktformular

Kontaktinformationen

Profilbild von Sven Badalyan Data Science, Robotik, AI, Machine Learning, OCR, Computer Vision, NLP, Optimierung, IoT, Jetson aus Berlin Data Science, Robotik, AI, Machine Learning, OCR, Computer Vision, NLP, Optimierung, IoT, Jetson
Registrieren