Wie ein Supercomputer die bisher größte Simulation unseres Weltalls erstellt hat
Ein Supercomputer hat die bisher komplexeste Simulation des Universums erstellt. Das berichtet das Wissenschaftsmagazin Space. Das System trägt den Namen Frontier und war bis vor Kurzem der schnellste Supercomputer der Welt, wurde aber im November von einem neuen Konkurrenten abgelöst.
Frontier, der am Oak Ridge National Laboratory in Tennessee stationiert ist, wurde als erster Exascale-Supercomputer gebaut und erreicht eine Rechenleistung von bis zu 1,1 Exaflop. Ein Exaflop beschreibt eine Trillion Gleitkommaoperationen pro Sekunde – eine Einheit, die speziell zur Messung extremer Rechenleistungen eingeführt wurde.
Der aktuelle Spitzenreiter, El Capitan, steht am Lawrence Livermore National Laboratory in Kalifornien. Er übertrifft Frontier mit beeindruckenden 1,742 Exaflop.
Großes Potenzial für die Wissenschaft
Ein Team des Argonne National Laboratory, einer Einrichtung des US-Energieministeriums in Illinois, hat seinen Hardware/Hybrid Accelerated Cosmology Code (HACC) auf dem Frontier-Supercomputer eingesetzt. HACC wurde vor etwa 15 Jahren entwickelt und modelliert die Entwicklung des Universums. Der Code wurde so geschrieben, dass er auf dem jeweils schnellsten Supercomputer laufen kann.
Ursprünglich wurde HACC auf weniger leistungsfähigen Petascale-Supercomputern eingesetzt. Ein besonders interessantes Projekt des Teams war die Modellierung von drei Kosmologien auf dem Summit-Supercomputer. Die Ergebnisse zeigten, dass eine veränderte dunkle Energie zu einer verstärkten Galaxienbildung im frühen Universum führen könnte. Diese Erkenntnis ermöglicht es Wissenschaftler:innen, weit entfernte Galaxien mit hoher Rotverschiebung zu untersuchen, die tiefe Einblicke in die Anfänge des Kosmos gewähren.
HACC übertrifft auf Frontier alle Erwartungen
Die Summit-Simulationen waren jedoch reine Schwerkraftsimulationen. Um neben der Schwerkraft auch andere Kräfte und Effekte einbeziehen zu können, waren leistungsfähigere Simulationen erforderlich. Und genau an dieser Stelle kam Frontier ins Spiel, unterstützt durch ExaSky, ein 1,8 Milliarden Dollar teures Projekt des US-Energieministeriums zur Förderung von Exascale-Computing.
Um HACC für den Betrieb auf Frontier vorzubereiten, wurde im Rahmen des ExaSky-Projekts festgelegt, dass der Code auf Frontier mindestens 50-mal schneller laufen muss als auf Titan, der der schnellste Supercomputer war, als HACC ursprünglich entwickelt wurde. Während des Testlaufs konnte HACC diese Vorgabe allerdings um ein Vielfaches übertreffen und war am Ende sogar fast 300-mal schneller.
Die zu verarbeitenden Datenmengen sind rieisg
Nach dem kosmologischen Standardmodell besteht mit rund 95 Prozent der Großteil des Universums aus zwei unsichtbaren Komponenten – nämlich dunkler Materie und dunkler Energie. Um das Weltall wirklich zu verstehen, müssen Wissenschaftler:innen diese beiden Komponenten sowie andere physikalische Phänomene wie Schwerkraft, heißes Gas, Sternentstehung, Schwarze Löcher und Galaxien simulieren. Die Daten, die dafür nötig sind, übersteigen alles Vorstellbare.
Salman Habib, der am Argonne National Laboratory als Abteilungsleiter für Computerwissenschaften tätig ist, sagt dazu: „Wenn wir einen großen Teil des Universums simulieren, der von einem der großen Teleskope wie dem Rubin-Observatorium in Chile vermessen wird, geht es um riesige Zeitabschnitte – um Milliarden von Jahren der Expansion. Bis vor Kurzem konnten wir uns nicht einmal vorstellen, eine so große Simulation außerhalb der reinen Gravitationsannäherung durchzuführen.“