Schattenblick →INFOPOOL →COMPUTER → FAKTEN

FORSCHUNG/093: Chemnitzer Software für den schnellsten Rechner Europas (idw)


Technische Universität Chemnitz - 29.06.2010

Chemnitzer Software für den schnellsten Rechner Europas

Informatiker und Mathematiker der TU Chemnitz beschäftigen sich in einem BMBF-geförderten Projekt mit langreichweitigen Wechselwirkungen


Er umfasst knapp 300.000 Rechenkerne und kann eine Billiarde Rechenoperationen pro Sekunde ausführen, was der Rechenleistung von mehr als 25.000 handelsüblichen PCs entspricht. Damit passt der Petaflop-Rechner JUGENE nicht nur unter keinen Schreibtisch, sondern ist derzeit auch der schnellste Rechner Europas sowie der fünftschnellste der Welt und einer der drei Supercomputer des Forschungszentrums Jülich, die Wissenschaftlern für komplexe und sehr rechenintensive Anwendungen zur Verfügung stehen.

Mit den Jülicher Supercomputern arbeiten derzeit auch Mathematiker und Informatiker der Technischen Universität Chemnitz. Prof. Dr. Daniel Potts und Michael Pippig von der Professur Angewandte Funktionalanalysis sowie Prof. Dr. Gudula Rünger und Michael Hofmann von der Professur Praktische Informatik der TU Chemnitz wirken gemeinsam mit Wissenschaftlern der Universitäten Bonn, Stuttgart und Wuppertal sowie mit dem Forschungszentrum Jülich, dem Max-Planck-Institut für Polymerforschung in Mainz und dem Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen in Sankt Augustin am Verbundprojekt ScaFaCoS mit. ScaFaCoS steht für "Skalierbare schnelle Löser für langreichweitige Wechselwirkungen" (englisch: "Scalable Fast Coulomb Solver") und wird im Rahmen des Förderprogramms "IKT 2020 - Forschung für Innovationen" für den Zeitraum vom 1. Januar 2009 bis zum 31. Dezember 2011 vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Ziel des Forschungsprojektes ist es, eine parallele Softwarebibliothek mit effizienten Lösern für langreichweitige Wechselwirkungen zu realisieren, die flexibel in verschiedenen Simulationsanwendungen eingesetzt werden kann. Was man unter langreichweitigen Wechselwirkungen versteht, erklärt Michael Pippig an einem Beispiel: "Ich stelle mir das immer so vor: Man hat eine Box gefüllt mit Bällen, von denen sich einige abstoßen oder gegenseitig anziehen. Das Problem bei langreichweitigen Wechselwirkungen ist, dass selbst der Ball ganz unten in der Ecke von dem ganz oben noch etwas spürt. Wenn man also diese Box zerlegt und auf verschiedene Prozessoren aufteilt, ergibt sich eine große Abhängigkeit zwischen den Teilboxen."

Computersimulationen derartig komplexer Vielteilchensysteme spielen in vielen Bereichen der Wissenschaft und der industriellen Forschung eine wichtige Rolle. In der Astrophysik können diese Systeme zum Beispiel aus Sternen bestehen, in der physikalischen Chemie oder der Biophysik werden dagegen Atome oder Moleküle betrachtet. "Unter langreichweitigen Wechselwirkungen versteht man Paarwechselwirkungen, die auch zwischen weit voneinander entfernt liegenden Teilchen noch signifikante physikalische Beiträge liefern. In der Astrophysik ist dies die Gravitation, in der Molekulardynamik die elektrostatische Wechselwirkung", erläutert Michael Hofmann. Um komplexe physikalische Phänomene simulieren zu können, müssen sehr große Teilchensysteme betrachtet werden. Hierfür benötigt man hocheffiziente Verfahren, die die Leistungsfähigkeit moderner Supercomputer effektiv ausnutzen.

Die Fakultät für Informatik der TU Chemnitz befasst sich innerhalb des Projektes mit der Entwicklung paralleler Sortierverfahren für Anwendungen des wissenschaftlichen Rechnens. Parallele Sortierverfahren werden hierbei unter anderem zur Datenumverteilung und Lastbalancierung eingesetzt und sind daher insbesondere in hochparallelen Anwendungen von besonderer Bedeutung. "Die Mathematik entwirft effiziente Algorithmen. Das heißt, dass bereits der Algorithmus vergleichsweise wenige Rechenoperationen benötigt und nicht, dass wir einen Parallelrechner verwenden um eine Vielzahl eigentlich unnötiger Rechenoperationen überhaupt abarbeiten zu können", erklärt Michael Pippig und fügt hinzu: "Wir untersuchen, wie sich die von uns entwickelten Verfahren in viele Teilschritte zerlegen lassen, um eine Rechenzeiteinsparung in der Größenordnung der verwendeten Rechenkerne zu erhalten. Die parallelen Implementationen dieser grundlegenden Algorithmen, beispielsweise der schnellen Fourier-Transformation, stellen wir allen Nutzern des parallelen Rechnens in Form einer Bibliothek zur Verfügung."

Damit die Software nicht an den Praktikern vorbei entwickelt wird, stellen Industriepartner (BASF AG, Cognis GmbH und IBM Deutschland GmbH) ihre Probleme zur Verfügung, die im Rahmen des Projektes von den Wissenschaftlern gerechnet werden. "IBM hat zum Beispiel auch den Rechner in Jülich gebaut und steht uns als Berater für dessen optimale Nutzung zur Seite", erzählt Pippig. Da der Zugang zu den Jülicher Parallelrechnern limitiert ist, wird zudem der Hochleistungs-Linux-Cluster CHiC der TU Chemnitz für das Projekt ScaFaCoS genutzt. "Darauf werden auch teilweise Algorithmen entwickelt und getestet, bevor man sie auf den hochskalierenden Rechnern in Jülich einsetzt", so Prof. Potts.

Kontaktdaten zum Absender der Pressemitteilung unter:
http://idw-online.de/pages/de/institution85


*


Quelle:
Informationsdienst Wissenschaft e. V. - idw - Pressemitteilung
Technische Universität Chemnitz, Katharina Thehos, 29.06.2010
WWW: http://idw-online.de
E-Mail: service@idw-online.de


veröffentlicht im Schattenblick zum 1. Juli 2010