Kommt der Durchbruch für das Internet of Things mit nanomagnetischen Computern?

Immer mehr Geräte sollen ihre „intelligenten“ Berechnungen vor Ort ausführen, doch der Energieverbauch steht dem im Weg – noch. (Grafik: Grafvish / Shutterstock.com)
Mit dem Internet of Things (IoT) soll künstliche Intelligenz in immer kleinere Geräte wandern. Das Problem: Das maschinelle Lernen ist energiehungrig und die Stromspeicherkapazitäten niedrig. Eine Lösung könnte der nun vorgestellte Ansatz liefern: Computer verwenden für die Berechnungen nanomagnetische statt elektrische Impulse. Ein Team des Imperial College of London hat nun ein „neuronales Netzwerk“ aus Nanomagneten entwickelt, das mit relativ kurzen Trainingssätzen effektiv gelernt hat. Bei einer Skalierung der Maschine könnte sie 100.000 Mal energieeffizienter arbeiten als herkömmliche Rechner, schreiben die Autor:innen in einer Pressemitteilung.
Künstliche Intelligenz: Weg von cloudbasierten Rechenzentren
Die Energiekosten für künstliche Intelligenz verdoppeln sich zurzeit alle 3,5 Monate. Speziell im Bereich IoT ändern sich Anforderungen: Statt große, komplexe Modelle in speziellen Rechenzentren auszuführen, sucht die Wissenschaft nach Möglichkeiten, einfache KI-Aufgaben auf kleinen, stromsparenden Geräten zu berechnen. In vielen Bereichen ist es aus einer Reihe an Gründen nicht sinnvoll, Daten an cloudbasierte KI-Supercomputer zu schicken. Solche Gründe können im Datenschutz, bei schwierigen Übertragungswegen oder schlicht in der Geschwindigkeit liegen.
Physikalische Gesetz werden zum Computer
Wege aus dem Dilemma suchen Forscher:innen in der Nachahmung des menschlichen Gehirns, einem extrem energieeffizienten Supercomputer. Das war auch die Idee des Teams am Blackett Laboratory der physikalischen Fakultät. Es ordnete zunächst in Computermodellen Nanomagnete in einem Netzwerk an und spielte dann Möglichkeiten durch, wie man dem System „Fragen stellen“ kann. Am Ende verwendeten sie ein künstlich hergestelltes Metamaterial, um ein Gitter aus Hunderten 600 Nanometer Meter großen Stäben zu erstellen. Das Material besitzt die Eigenschaft, seine Textur über magnetische Einflüsse zu wechseln. Autor Kilian Stenning erklärt: „Wie die Magnete interagieren, gibt uns alle Informationen, die wir brauchen; die physikalischen Gesetze selbst werden zum Computer.“
Reservoir-Computing statt Deep Learning
Die Physiker:innen nutzen die Eigenschaften, um eine Form der künstlichen Intelligenz zu implementieren, die als Reservoir-Computing bekannt ist. Dabei stehen feststehende Verbindungen im Fokus – im Gegensatz zum Deep-Learning-Ansatz, bei dem sich die Netzwerke immer neu verknüpfen. Die magnetischen Strukturen werden dabei auf eine bestimmte Aufgabe trainiert, es gibt nur eine Aufgabenschicht. Das Team bewies, dass seine Konstruktion bei einer Reihe von Vorhersagen inklusive zeitlich veränderlicher Daten mit herkömmlichen Systemen mithalten konnte. Im nächsten Schritt will es reale Daten wie EKG-Signale zum Training verwenden. Am Ende hofft man, dass man das Gerät lokal einsetzen kann, um erste KI-Berechnungen auszuführen, statt die Cloud nutzen zu müssen. Als Beispiel dienen Wetterdaten aus der Antarktis, die dann vor Ort bearbeitet werden können. Oder die Verarbeitung biometrischer Daten – wie die Vorhersage des Insulinspiegels – direkt in tragbaren Geräten.