In dem Vortrag geht es um Julia, eine neue Sprache für hoch performantes wissenschaftliches Rechnen. Nach einer Einführung in die Grundlagen von Julia wird gezeigt, warum sich Julia für paralleles Rechnen auf der CPU, Xeon Phi und GPU eignet und wie der aktuelle Stand von Julia in diesen Bereichen ist. An Beispielen werde ich zeigen, wie Julia-Code auf der GPU ausgeführt werden kann und man dadurch mit relativ wenig Aufwand eine umfangreiche GPU-Array Bibliothek bauen kann. Abschließend geht es darum, wie sich OpenGL-basierte Visualisierungen nahtlos mit den GPU-beschleunigten Bibliotheken kombinieren lässt.
Vorkenntnisse
Vorwissen in den Bereichen Julia, CUDA und OpenCL sind ein Plus, aber nicht zwingend notwendig.
Lernziele
Ziel ist es, dem Zuhörer einen akkuraten Überblick über Julias Stand im Bereich von Parallel und GPU Computing zu verschaffen.
//
Simon Danisch
@SimonDanisch
ist der Autor von GLVisualize.jl, einer Bibliothek zum Visualisieren von 2D-, 3D- und animierten Daten in der Julia-Sprache. Darüber hinaus arbeitet er an Bibliotheken für General Purpose Computing on GPUs (GPGPU). Sein Ziel ist es, eine homogene Plattform für High-Performance Computing (HPC), GPGPU und Visualisierungen innerhalb der Julia-Sprache zu schaffen.