Vorhersagen zur Faltung von Proteinen, chemischen Materialeigenschaften oder zur Regenwahrscheinlichkeit: Googles Tochterfirma Deepmind hat mit ihren KI-Anwendungen schon in verschiedensten wissenschaftlichen Disziplinen für überraschende Durchbrüche gesorgt.
Den neuesten Erfolg verzeichnen die Forscher:innen jetzt im mathematischen Bereich: Die Software scheint einen Weg gefunden zu haben, die sogenannte Matrizenmultiplikation zu beschleunigen.
KI-Anwendung: Alpha Tensor beschleunigt nach mehr als 50 Jahren mathematisches Verfahren
Die Matrizenmultiplikation ist ein komplexes mathematisches Verfahren, das bei zahlreichen digitalen Anwendungen zum Einsatz kommt. Dazu zählen beispielsweise Simulationen, Prozesse im Machine Learning oder – ganz alltäglich – die Darstellung von Bilddateien auf einem Bildschirm.
Den bisher kürzesten Rechenweg zur Multiplikation von zwei sogenannten Vier-mal-Vier-Matrizen hat der deutsche Mathematiker Volker Strassen entwickelt – und das schon im Jahr 1969. Strassens Rechenweg enthält insgesamt 49 Schritte.
Die KI-Anwendung von Deepmind kommt jetzt mit zwei Schritten weniger, also nur 47, ans Ziel. Durch diese Beschleunigung des Prozesses könnte künftig nicht nur Zeit, sondern auch Energie und Kosten eingespart werden.
Es handele sich um „ein erstaunliches Ergebnis“, so der Mathematiker François Le Gall gegenüber dem MIT Technology Review. Le Gall selbst war nicht an der Untersuchung beteiligt, er ist Mathematiker an der Universität Nagoya in Japan. Und er erklärt, wie häufig die Matrizenmultiplikation im alltäglichen Leben zum Einsatz kommt: „Für alles, was man numerisch lösen will, verwendet man in der Regel Matrizen.“ Die Beschleunigung des Berechnungsverfahrens sei „eines der größten offenen Probleme in der Informatik“.
Deepmind-KI: Probleme werden zum Spiel
Wenn zwei Matrizen miteinander multipliziert werden sollen, gibt es dafür eine Vielzahl an Lösungswegen. Thomas Hubert, der als Entwickler bei Deepmind federführend an dem neuen Projekt beteiligt war, beschreibt das so: „Die Anzahl der möglichen Aktionen ist fast unendlich.“ Dadurch ist es extrem komplex, den schnellstmöglichen Weg zu ermitteln.
Um dieses Problem via KI-Anwendung zu bearbeiten, haben er und sein Team eine Art dreidimensionales Brettspiel erschaffen. Die zu lösende Multiplikation ist das Spielbrett, jeder Zug ein Lösungsschritt. Die einzelnen Züge ergeben aneinander gereiht einen Algorithmus. Eine auf Gaming ausgelegte KI-Anwendung namens Alpha Tensor – eine neue Version von Alpha Zero – sollte dieses Spiel dann mit möglichst wenigen Spielzügen durchspielen.
Der spielerische Ansatz hat zum Erfolg geführt: Insgesamt hat Alpha Tensor nicht nur einen Durchbruch bei der Multiplikation von Vier-mal-Vier-Matrizen verzeichnet, sondern konnte auch bei einigen anderen Matrizengrößen die Multiplikationsschritte verringern – oder das bestehende Minimum an Schritten bestätigen.
Für den anschließenden Praxistest wählte das Forschungsteam dann mithilfe von Alpha Tensor Algorithmen, die auf Nvidia V100 GPU- und Google TPU-Prozessoren zugeschnitten waren – und die Matrizenmultiplikation letztendlich 10 bis 20 Prozent schneller durchführen konnten als die Algorithmen, die auf den gewählten Prozessoren bisher zum Einsatz kommen.
Alle Forschungsergebnisse sind in einem Artikel zusammengefasst, der im Fachmagazin Nature veröffentlicht wurde.
Dall-E malt unsere Headlines:
Einfachere Methoden um diese Strassen-artigen Algorithmen zu finden existierten schon vorher.
Z.B.:
https://www.researchgate.net/publication/341942316_Searching_for_fast_matrix_multiplication_algorithms
Wenn man irgendwas heute mit Megacomputern besser kann als ein Deutscher 1969 zu Fuss ist man schon fast Gott! Da braucht man nicht stolz drauf sein, das ist erbärmlich.