parallel 2014 » Agenda »
// Tipps & Tricks für den erfolgreichen Einsatz von GPU-Computing
In diesem Vortrag wird ein sequenzielles Programm schrittweise in ein optimiertes massiv-paralleles GPU-Programm überführt. Hierbei werden die typischen Arbeitsschritte, Methoden und Werkzeuge für Nvidia CUDA, OpenCL und C++ AMP vorgestellt. Neben den Grundlagen der Architektur von Grafikkarten werden die Besonderheiten bei der Parallelisierung von GPU-Kerneln erklärt. Anhand des Werkzeugs "Guided Application Analysis" des Nvidia Visual Profiler werden Tipps und Tricks für die Optimierung gegeben und der theoretische Hintergrund erläutert. Es wird gezeigt, wie mit Streaming und dem Einsatz von mehreren GPUs (Multi-GPU) Systeme besser ausgelastet werden können. Der Referent stellt hierbei Klassen und Hilfsmittel vor, die er bei der Projektarbeit im Bereich GPU Computing in den letzten fünf Jahren erlernt hat.
// Referent
// Jörn Dinkla
arbeitet freiberuflich als Softwareentwickler und Berater. Seine Schwerpunkte sind parallele und verteilte Systeme, GPU-Computing und Programmiersprachen. Für den Manning-Verlag war er technischer Editor des Buchs "OpenCL in Action".