GPU/KI Workshop

Remote  ‐ Remote
Dieses Projekt ist archiviert und leider nicht (mehr) aktiv.
Sie finden vakante Projekte hier in unserer Projektbörse.

Beschreibung

Workshopbeschreibung:

Hintergrund
Bei der Entwicklung der HiPoS-Verfahren steht regelmäßig die GPU Nutzung der Software im Vordergrund. Insbesondere im Bereich der KI gewinnt das Thema GPU an erheblicher Bedeutung.
Der Workshops hätte eine Dauer von 1 bis 2 PT.

Was Sie schon immer über GPU wissen wollten, aber bisher nicht zu fragen wagten.
Einleitung
In der HiPoS-Umgebung stehen leistungsstarke GPU-Karten (NVIDIA P40 / V100 / A100) zur Verfügung, um verschiedenartige Anforderungen (zumeist an Performance) zu adressieren:
• Beschleunigung von Citrix Desktops
• 2D-Imaging / 3D-Rendering
• Hardwarebasiertes Video-Encoding/Decoding
• KI / Machine Learning / Deep Learning
• GPU-Virtualisierung
Um diese unterschiedlichen Anforderungen adressieren und die zur Verfügung stehende GPU-Leistung zielgerichtet, sinnvoll und effizient einsetzen zu können, benötigen wir Fachwissen zum Thema „GPU-Nutzung in der HiPoS-Umgebung“.
Zu diesem Zweck beantragen wir einen „All Things (NVIDIA) GPU“ Workshop mit einem externen erfahrenen Experten, der uns die verschiedenen Funktionalitäten der (NVIDIA) GPU-Karten erläutern und entsprechende praxisbezogene Empfehlungen (Good/Best Practices) geben kann.
Workshop-Themen/Fragen
• Auf welche verschiedenen Arten kann man eine GPU nutzen?
• Client vs Server / (Citrix) VDI / KI-Stuff / Video-Encoding/Decoding / …
• Welches vGPU-Profil für welchen Anwendungszweck?
• Wann bringt eine vGPU wirklich etwas und wann nutze ich stattdessen besser vCPU?
• Wie funktioniert NVENC/NVDEC-Virtualisierung?
• NVIDIA vs. INTEL GPUs – Wo sind die Unterschiede?
• Mit welchen Tools kann ich die Performance einer (v)GPU messen?
• Was bedeuten die ganzen Buzzwords (Quadro, GRID, CUDA, etc.)?
• Was sind die Limits speziell in Hinblick auf GPU-Virtualisierung mit VMWare im Gegensatz zu Nutzung auf Bare-Metal?
• Ist GPU-Performance mit gängigen Tools messbar (Prometheus, Icinga2 etc.)?
• Linux-Support (Treiber etc.)
• Deep learning vs. Machine learning
• Ab welcher neuralen AI Größe lohnt sich eine GPU und wo reicht CPU vollkommen aus (Datendurchsatz auf Grund der Datengröße)?
• Abhängigkeiten zu CPU und RAM
• Wie lässt sich ermitteln, wie viele parallele Transcodings auf einer vGPU bestimmter Klasse durchgeführt werden können?
• Was ist der Unterschied bei den verschiedenen Profilen in Bezug auf Transcoding – welches Profil unterstützt was?
• Wie werden GPU-Schnittstellen innerhalb eines Docker-Containers verfügbar gemacht? Welche Limitierungen gibt es in Bezug auf Transcoding?
• Welche Transcoding-Tools werden von welchem Profil bzw. welcher GPU unterstützt? – Beispiel: FFMPEG oder GStreamer
Start
ab sofort
Von
GIGBAY AG
Eingestellt
20.09.2021
Ansprechpartner:
Turgut Karacay
Projekt-ID:
2209042
Vertragsart
Freiberuflich
Einsatzart
100 % Remote
Um sich auf dieses Projekt zu bewerben müssen Sie sich einloggen.
Registrieren