13.000-mal schneller als Supercomputer: Googles „Quantum Echoes“ erreicht verifizierbaren Durchbruch
Google hat einen signifikanten Fortschritt auf dem Weg zu praxistauglichen Quantencomputern vorgestellt. Einem Team von Google Quantum AI ist es gelungen, den ersten “verifizierbaren Quantenvorteil” zu demonstrieren. Dabei löste ein neuer Algorithmus eine komplexe wissenschaftliche Rechenaufgabe um ein Vielfaches schneller, als es der leistungsstärkste klassische Supercomputer der Welt könnte. Die Ergebnisse wurden im renommierten Fachmagazin Nature veröffentlicht.
Der neue Algorithmus trägt den Namen “Quantum Echoes” (Quanten-Echos) und lief auf Googles “Willow”-Quantenprozessor. Bei dem Experiment wurde eine Simulation der Quantendynamik durchgeführt, eine Aufgabe, die für klassische Rechner exponentiell schwierig ist. Laut Google lief der Algorithmus auf dem Willow-Chip 13.000-mal schneller als der beste klassische Algorithmus auf “Frontier”, einem der weltweit schnellsten Supercomputer. Die Berechnung, die der Quantencomputer in etwas mehr als zwei Stunden durchführte, hätte auf dem Supercomputer schätzungsweise 3,2 Jahre gedauert.
Der Unterschied: Warum “verifizierbar” entscheidend ist
Der entscheidende Punkt der Ankündigung ist der Begriff “verifizierbar”. Im Jahr 2019 beanspruchte Google bereits die “Quantum Supremacy” (Quantenüberlegenheit) für sich, was damals auf erhebliche Kritik stieß. Konkurrenten argumentierten, die von Googles “Sycamore”-Prozessor gelöste Aufgabe sei zu abstrakt und könne mit besseren klassischen Methoden doch bewältigt werden.
Der “Quantum Echoes”-Durchbruch ist anders. Die Ergebnisse sind reproduzierbar und können von anderen Quantencomputern ähnlicher Qualität wiederholt oder durch physikalische Experimente bestätigt werden. Damit entzieht Google den Argumenten der reinen Unbeweisbarkeit die Grundlage und liefert einen robusteren Beweis für die Überlegenheit der Quantenarchitektur bei dieser spezifischen Aufgabe.
Ein “Echo” als Werkzeug für die Wissenschaft
Der Algorithmus nutzt ein Verfahren, das als “out-of-time-order correlator” (OTOC) bekannt ist. Wie Google in seinem Blog erklärt, sendet das Team dabei ein präzises Signal in das Quantensystem. Anschließend wird ein einzelnes Qubit gezielt gestört.
Danach kehren die Forscher:innen die Entwicklung des Signals präzise um. Sie lauschen auf das zurückkehrende “Echo”, das durch konstruktive Interferenz verstärkt wird. Diese Methode macht die Messung extrem empfindlich für die Dynamiken im Inneren des Systems.
Dieser Ansatz ist kein reines Rechenkunststück, sondern ein praktisches Werkzeug. In einer Zusammenarbeit mit der University of California in Berkeley nutzte das Team den Algorithmus, um Molekülstrukturen zu untersuchen. Laut Engadget stimmten die Ergebnisse mit der etablierten Kernspinresonanz-Methode (NMR) überein, lieferten aber sogar zusätzliche Informationen, die per NMR bisher nicht zugänglich waren.
Der “Willow”-Chip als Basis des Erfolgs
Grundlage für das Experiment ist der “Willow”-Prozessor, über den wir bereits im vergangenen Jahr berichtet haben. Dieser Chip war schon die Basis für Googles Meilenstein bei der Quantenfehlerkorrektur. Der aktuelle Erfolg unterstreicht die Stabilität und Präzision der 105-Qubit-Architektur.
Trotz dieses Fortschritts bleibt der Weg zu einem universell einsetzbaren, fehlertoleranten Quantencomputer weit. Wie The Guardian berichtet, bezeichnet Winfried Hensinger, Professor für Quantentechnologien an der University of Sussex im Vereinigten Königreich, die Demonstration zwar als “überzeugenden Beweis”. Hensinger merkt jedoch an, dass die interessantesten Quantencomputer Millionen von Qubits benötigen werden, was die aktuelle Hardware bei Weitem noch nicht leisten kann.
Google selbst zeigt sich optimistisch. Das Unternehmen prognostiziert auf Basis der “Quantum Echoes”-Forschung, dass erste reale Anwendungen, etwa in der Medikamentenentwicklung oder der Materialwissenschaft, innerhalb der nächsten fünf Jahre möglich werden könnten.