parallel 2013 » Agenda »
// Engelchen und Teufelchen: effiziente Parallelprogrammierung mit OpenMP 4.0
Trotz seiner Wurzeln im Höchstleistungsrechnen bietet sich OpenMP mit dessen Unterstützung von C und C++ auch für die Programmierung nativer, paralleler Applikationen in anderen Bereichen an. Beispiele sind Plug-ins für Photoshop oder zeitkritische Finanzsimulationen. Trotz steter Weiterentwicklung hält sich der Mythos, dass OpenMP-Applikationen nicht skalierbar wären und OpenMP nicht attraktiv genug wäre. Mit diesem Vortrag möchten wir gängige Vorurteile aufgreifen und widerlegen. Die diskutierten Themen umfassen Effekte durch NUMA, False-Sharing, SIMD-Vektorisierung und effizienten Einsatz von Tasking.
// Referenten
// Michael Klemm
ist Teil der Intel Software and Services Group und arbeitet in der Developer Relations Division mit Fokus auf Höchstleistungsrechnen. Er promovierte im Jahr 2008 an der Friedrich-Alexander-Universität Erlangen-Nürnberg mit dem Schwerpunkt auf Compiler und Laufzeitsysteme für verteilte Rechnerstrukturen. Seine Interessensgebiete umfassen Compilerbau, Design paralleler Programmiersprachen, effiziente parallele Programmierung sowie Performance-Analyse und Performance-Optimierung. Klemm arbeitet im OpenMP Language Committee and unterschiedlichsten Fragestellungen und leitet die Projektgruppe zur Entwicklung von Fehlerbehandlungsmechanismen für OpenMP.
// Christian Terboven
hat Informatik mit der Vertiefung Hochleistungsrechnen (HPC) an der RWTH Aachen studiert und arbeitet dort seit 2006 am Rechen- und Kommunikationszentrum, seit 2009 als stellvertretender Leiter der Abteilung HPC. Seine Forschungsinteressen kreisen generell um das Thema Parallelprogrammierung und damit verbunden Softwaretechnik. In diesem Kontext ware er in etlichen Projekten zur Analyse, Optimierung und Parallelisierung technisch-wissenschaftlicher Anwendung involviert. Seit 2006 ist er Mitglied des OpenMP Language Committee, leitet das Affinity-Subcommittee, welches die Themenbereiche Thread-Binding und NUMA-Unterstützung aktiv vorantreibt, und arbeitet als Co-Chair des Tasking Subcommittees zur Verbesserung der Unterstützung der Task-parallelen Programmierung.