News

US-Forscher erzeugen Sprache aus Hirnströmen – Sprachsynthese

Sprachsynthese: ein erster Schritt zur Nachbildung des natürlichen Sprechens
(Bild: UCSF/Screenshot: Golem.de)

US-Forscher haben ein System entwickelt, das Signale aus dem Gehirn in gesprochene Sprache übersetzt. Dabei bildet es die Stimme und Sprachmelodie des Probanden nach. Das System soll in Zukunft möglich machen, dass Menschen, die ihre Sprechfähigkeit verloren haben, wieder sprechen.

Sprache für die Sprachlosen: Forscher der Universität von Kalifornien in San Francisco haben eine Gehirn-Maschine-Schnittstelle (Brain-Computer-Interface, BCI) entwickelt, die Gehirnaktivität in natürlich klingende, synthetische Sprache übersetzt. Das System soll es Menschen, die durch eine Lähmung oder eine andere neurologische Schädigung die Sprachfähigkeit verloren haben, ermöglichen, zu kommunizieren.

Das System besteht aus einer Anordnung von Elektroden, die auf dem Gehirn des Probanden platziert werden. Die Signale werden in einen virtuellen Stimmapparat gespeist. Er bildet die Bewegungen der Lippen, des Kiefers, der Zunge und des Kehlkopfes nach und wandelt so die Hirnsignale in Worte um.

„Diese Studie zeigt erstmals, dass wir aus der Gehirnaktivität einer Person ganze gesprochene Sätze erzeugen können“, sagt Edward Chang, Neurochirurg und Leiter der Studie. „Das ist ein erhebender Beweis des Prinzips, dass wir in der Lage sind, mit verfügbarer Technik ein Gerät zu bauen, das für Patienten mit Sprachverlust klinisch praktikabel ist.“

Die Studie, die in der Fachzeitschrift Nature erschienen ist, basiert auf einer früheren Arbeit, bei der die Forscher beschrieben, wie das Sprachzentrum im Gehirn die Bewegungen des menschlichen Stimmapparats für flüssiges Sprechen steuert. Dabei fanden sie heraus, dass die Sprachzentren des Gehirns weniger Geräusche als vielmehr Anweisungen für die Koordinierung der Mund- und Rachenbewegungen kodieren. Das könnte der Grund sein, weshalb frühere Versuche, Sprache direkt aus der Hirnaktivität zu extrahieren, nur bedingt erfolgreich waren.

Um das System zu trainieren, ließen die Forscher Epilepsiepatienten, denen vorübergehend eine Elektrode ins Gehirns implantiert worden war, mehrere Hundert Sätze laut vorlesen. Dabei wurde die Aktivität in den Regionen des Gehirns, die für die Spracherzeugung zuständig sind, aufgezeichnet. Aus diesen Daten rekonstruierten die Forscher die Bewegungen des Stimmapparats, der diese Laute erzeugte: das Zusammenpressen und Öffnen der Lippen, die Bewegungen der Zunge im Mund, das Straffen der Stimmbänder. Insgesamt sind rund 100 Muskeln am Sprechen beteiligt.

Ein individueller virtueller Stimmapparat für jeden Probanden

Die detaillierte Korrelation von Klang und Anatomie ermöglichte es, für jeden Probanden einen virtuellen Stimmapparat zu erzeugen, der durch dessen Gehirnaktivität gesteuert werden konnte. Zu dem System gehören Algorithmen mit maschinellem Lernen: Ein Decoder übersetzt die Hirnaktivitätsmuster, die beim Sprechen entstehen, in Bewegungen des virtuellen Stimmapparats. Ein Synthesizer erzeugt aus Bewegungen des Stimmapparats eine synthetische Stimme, die der des Probanden ähnelt.

Durch einen Schlaganfall oder neurodegenerative Erkrankungen wie Parkinson, Multiple Sklerose und amyotrophe Lateralsklerose (ALS) kann die Sprechfähigkeit eines Menschen beeinträchtigt werden oder verloren gehen. Der im vergangenen Jahr verstorbene Physiker Stephen Hawking war an ALS erkrankt und konnte nur einen Wangenmuskel und seine Augen bewegen.

Stephen Hawking kommunizierte mithilfe seines Wangenmuskels

Hawking kommunizierte, indem er seinen Wangenmuskel bewegte. Eine Infrarotkamera an seiner Brille erfasste die Bewegungen des Wangenmuskels. So steuerte Hawking einen Cursor auf einem Bildschirm und eine Sprachsynthesesoftware. Solche Systeme ermöglichen etwa zehn Worte pro Minute. Gesprochen kann der Mensch etwa 100 bis 150 Worte in der Minute äußern.

Das System soll den Patienten aber nicht nur die Sprache wiedergeben. Es werde zudem in der Lage sein, einen Teil der Sprachmelodie zurückzugeben, die die Emotionen und Persönlichkeit des Sprechers ausdrücke, sagen die Wissenschaftler.

Das System könne schon sehr gut Töne wie „sch“ und „z“ erzeugen. Auch Sprachrhythmus, Sprachmelodie und das Geschlecht des Sprechenden ließen sich gut nachbilden, sagt Projektmitarbeiter Josh Chartier. Verschlusslaute wie „b“ und „p“ hingegen funktionierten noch nicht so gut. Es sei jedoch schon besser als die bisher verfügbaren Systeme seiner Art. Aber, schränkt Josh Chartier ein: „Es ist noch ein weiter Weg, bis wir die gesprochene Sprache perfekt nachahmen können.“

Autor des Artikels ist Werner Pluta.

Zur Startseite
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Ein Kommentar
Geronimo
Geronimo

Wäre doch interessant das einem schlafendem aufzusetzen…..
Aber ich sehe da leider keine so rosige zukunft für diese Technik. Man stelle sich vor, man kann hören was andere Menschen denken….

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung