Hirnforscher rekonstruieren Sprache aus Hirnströmen mithilfe von KI

Es ist ein alter Traum (oder Albtraum) der Hirnforschung, aus den Wellenmustern der Hirnströme irgendwann einmal Gedanken herauslesen zu können. Patienten wie Stephen Hawking, die nicht mehr sprechen können und Sätze mühsam per Cursorsteuerung aneinanderreihen müssen, damit ein Sprachsynthesizer die Worte für sie ausspricht, könnten enorm von einer solchen Technologie profitieren. Noch ist es nicht so weit, aber der Hirnforscher Nima Mesgarani und seine Kollegen vom Neural Acoustic Processing Lab an der New Yorker Columbia University sind diesem Ziel einen Schritt näher gekommen.
Im Experiment haben sie mehreren Patienten, die sowieso gerade zur Behandlung ihrer Epilepsie ein Hirnimplantat eingesetzt bekamen, Texte und Zahlen vorgelesen und zugleich per Implantat die elektrische Aktivität im Hörzentrum des Gehirns gemessen. Mit diesen Daten wurde ein neuronales Netz trainiert, bis es in der Lage war, die Wörter zu erkennen. Im Grunde die gleiche Technik, die Sprachassistenten wie Siri oder Alexa benutzen, um Sprache zu erkennen, nur eben mit Hirnaktivität statt gesprochener Worte als Input.
Das Ergebnis klingt ziemlich geisterhaft. In den Audiodateien, die zusammen mit dem Forschungsbericht in Scientific Reports veröffentlicht wurden, lässt sich anhören, wie es klingt, wenn der Sprachsynthesizer Zahlen aus dem Hörzentrum des Gehirns anderer Leute wieder zu gesprochener Sprache rekonstruiert. Die Erfolgsrate liegt bei 75 Prozent: Drei von vier Menschen können derart rekonstruierte Sprache verstehen.
Noch haben die Forscher viel Arbeit vor sich. Das System gewinnt aus den Hirnströmen lediglich eine Abfolge von Wörtern. Andere zur Sprache gehörige Information wie etwa die Betonung geht mit dieser Methode verloren. Und von echtem Gedankenlesen ist das Brain-Computer-Interface ebenfalls noch sehr weit entfernt. Denn weiterhin ist es nicht möglich, Zahlen, Wörter oder Sätze auszulesen, die die Probanden einfach nur denken. Das Experiment gelingt bis auf Weiteres nur mit Informationen aus dem Hörzentrum, die unmittelbar in dem Moment entstehen, wenn die Probanden gesprochener Sprache zuhören. Stephen Hawking hätte man damit also nicht helfen können.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Es ist wirklich spannend, dass man mithilfe von Implantaten im Gehirn nun schon Informationen zur Sprache aus dem Gehirn auslesen kann. Das klingt tatsächlich nach einem großen Schritt in Richtung Gedankenlesen. Ich bin gespannt darauf, was künstliche Intelligenz in der Zukunft noch möglich machen wird.