Das Gedankenlesen zählt wohl zu den am intensivsten beforschten Feldern in der Neurowissenschaft. Dabei versuchen Forscher:innen Gehirnsignale nicht nur exakt zu lesen, sondern vor allem zu interpretieren.
Gedankenleser könnten vielen Menschen Perspektiven eröffnen
Genährt wird dieses Forschungsfeld durch die Hoffnung, dass auf diese Weise Menschen im Koma oder mit verschiedenen Formen von Lähmungen geholfen werden könnte. Völlig neue Kommunikationsmöglichkeiten täten sich auf.
Zudem besteht die generelle Hoffnung, dass die Technologie intuitivere Schnittstellen zwischen Mensch und Maschine schaffen könnte. Die wären wiederum auch für gesunde Menschen nutzbar.
Forscher:innen der National University of Singapore und der Chinese University of Hongkong haben jüngst eine künstliche Intelligenz (KI) zur Erzeugung von Videos eingesetzt, die aus den Hirnaktivitäten derer, die sie sich zuvor angeschaut hatten, rekonstruiert wurden.
Das ist ein deutlicher Schritt nach vorne, denn bisher konzentrierten sich die meisten Forschungsarbeiten darauf, innere Monologe von Patient:innen nachzubilden. Die KI galt bereits als erfolgreich, wenn sie herausfinden konnte, an welche Worte die Proband:innen dachten. Dabei wurden die besseren Ergebnisse stets da erzielt, wo echte Gehirnimplantate zur Anwendung gelangten, was naheliegenderweise für die meisten Menschen nicht infrage kommt.
Neue Studie baut auf Standbild-Erfolgen früherer Studien auf
In ihrer jüngsten Forschungsarbeit, die auf dem Preprint-Server Arxiv veröffentlicht wurde, kombinierten die Wissenschaftler:innen nicht-invasive Gehirnscans mit KI-Bilderzeugungstechnologie. So gelang es ihnen, kurze Videoschnipsel zu erstellen, die den Clips, die die Probanden bei der Erfassung ihrer Gehirndaten sahen, verblüffend ähnlich sind.
Die Arbeit stellt den nächsten Schritt einer bereits Ende letzten Jahres veröffentlichten Studie dar. Seinerzeit hatten dieselben Forscher:innen Standbilder erzeugen können, die den Bildern, die den Proband:innen zuvor gezeigt worden waren, annähernd entsprachen.
Dazu war zunächst ein Modell mit großen Datenmengen trainiert worden, die mit fMRI-Gehirnscannern gesammelt worden waren. Dieses Modell wurde dann mit der quelloffenen Bildgenerierungs-KI Stable Diffusion kombiniert, um die Bilder zu erstellen.
Mehr Trainingsdaten, bessere Ergebnisse
In ihrer neuen Arbeit verfolgen die Autor:innen einen ganz ähnlichen Ansatz. Dieses Mal verarbeiten sie aber ganze Ströme von Hirndaten und interpretieren sie. Daraus generieren sie dann Videos statt Standbilder.
Mit deutlichen Erweiterungen der Trainingsdaten gelang es dem System schließlich, neue fMRT-Scans, die es zuvor nicht gesehen hatte, zu nehmen und Videos zu generieren, die den Clips, die sich die Proband:innen zuvor angesehen hatten, weitgehend ähnelten.
Die Ergebnisse der KI waren zwar nicht perfekt, kamen indes im Allgemeinen dem Originalvideo recht nahe. Zur Bewertung ihres Systems verwendeten die Forscher einen Videoklassifikator, der beurteilen sollte, wie gut das Modell die Semantik der Szene verstanden hatte.
Technologie mit viel Potenzial, aber hohen Risiken
Trotz der teils fehlerhaften Darstellung der erzeugten Videos zeigen sich die Forscher:innen überzeugt davon, dass ihre Forschungsergebnisse letztendlich sowohl in den grundlegenden Neurowissenschaften als auch bei zukünftigen Gehirn-Maschine-Schnittstellen Anwendung finden könnten.
„Staatliche Vorschriften und Bemühungen der Forschungsgemeinschaften sind erforderlich, um die Privatsphäre der eigenen biologischen Daten zu schützen und eine böswillige Nutzung dieser Technologie zu vermeiden“, schreiben sie selbstkritisch und mit Blick auf die Regulierungsbehörden der Welt. Tatsächlich scheint es bedenklich, dass KI-Gehirnscans das Lesen der Gedanken anderer ohne deren Zustimmung ermöglichen könnten.
Web đọc truyện miễn phí