Telepathie? Gehirnforscher lesen Gedanken und wandeln sie in Sprache um

Gefangen im eigenen Körper, unfähig sich der Welt mitzuteilen. Hundertausende Menschen können in Deutschland nicht richtig sprechen und sich kaum artikulieren. Allein 100.000 Patienten leiden nach einem Schlaganfall nach Sprech- und Schluckstörungen. Hinzu kommen Hunderte, die an Amyotropher Lateralsklerose (ALS) oder anderen neurologischen Krankheiten erkrankt sind. Der vergangenes Jahr verstorbene Astrophysiker Stephan Hawking verlor durch ALS schon mit 42 Jahren seine Stimme. Der berühmte Wissenschaftler konnte sich zwar per Sprachcomputer verständigen. Doch viele Assistenzsysteme gelten als nicht ausgereift und sind weit entfernt von einem natürlichen Sprachwidergabe.

Sprechen als komplexer Vorgang im Körper

Fehlendes Sprechtempo, abgehackte Sätze, aus dem Sinn gerissene Wortgruppen - die künstliche Sprachsynthese steht vor vielen Herausforderungen. Sprechen scheint mühelos zu sein, ist jedoch einer der komplexesten Vorgänge im Körper. Genau an diesem Hebel setzen die Hirnforscher aus San Francisco an. Sie analysierten mit Elektroden Gehirndaten, erzeugten Anweisungen an Sprechmuskeln und setzten diese wiederum in gesprochene Laute um. Damit gelang es ihnen erstmals, Gedanken zu lesen und auch hörbar zu machen. Die Ergebnisse wurden jetzt im Wissenschaftsmagazins Nature vorgestellt.

Gesprochene Sprache mit 150 Wörtern pro Minute

grafische Darstellung eines menschlichen Schädels und Computerbauteile
Das menschliche Gehirn ist hochkomplex und noch immer leistungsfähiger als jeder Computer. US-Forscher haben jetzt Sprachsignale ausgewertet und damit Anweisungen an die Sprechmuskeln erteilt. Bildrechte: imago/Ikon Images

Gesprochene Sprache produziert etwa 150 Worte in einer Minute. Das sind 9.000 Worte mit verschiedener Grammatik, Dialekten, Sprachen, Tonlagen. Eine riesige Aufgabe für lernende Sprachcomputerprogramme, die Sprachsignale des Gehirns direkt in Wörter umwandeln. Die Gehirnforscher vereinfachten jetzt das Verfahren und setzten nicht direkt auf die Widergabe von Wörtern. Stattdessen bauten sie ein Modell des menschlichen Sprechapparates mit Lippen, Zunge, Kehlkopf als Zwischenschritt ein.

Der Clou: Anweisungen an Sprechmuskeln

Der Clou: Mit den Gehirndaten wurden zuerst die Anweisungen für die rund hundert Sprechmuskeln extrahiert. Aus deren Bewegungen erzeugten die Wissenschaftler dann die Laute zum Sprechen. "Dieser Zwischenschritt ist entscheidend und zwar, weil es viel weniger Muskelsignale gibt als mögliche Worte", schreiben die Forscher in dem Fachbeitrag. "Die Lernaufgabe für das Computerprogramm wurde so entscheidend einfacher."

Ergebnis verwaschen, doch verständlich

Doch funktioniert das wirklich? Können Anweisungen so an die Sprechmuskeln so erteilt werden, dass die Sprache auch verständlich ist? Ja. Das Ergebnis der Studie klingt zwar verwaschen, doch viele Testhörer verstanden fast die Hälfte der Worte, hieß es in dem Beitrag. Danach gab es sogar einen Testhörer, der es schaffte, 82 von hundert Sätzen korrekt abzuschreiben. Was eher ernüchternd klingt, gilt in der Forschung als Fortschritt. Die höhere Worterkennungs-Trefferquote und ein "Reinhören" erhöhen in der Praxis die Chancen für eine fließende Kommunikation. "Der zweistufige Ansatz der Autoren führte zu deutlich weniger akustischen Verzerrungen", schreiben die Forscher. Es blieben jedoch noch viele Herausforderungen.

Die Verständlichkeit der rekonstruierten Sprache war immer noch viel geringer als die der natürlichen Sprache.

Anumanchipalli, Chartier und Chang US-Forscher

Der Versuch: Elektrodenmatte auf das Gehirn

Ein Mann hält ein medizinisches Gerät, ein Drahtgitter mit Kabeln, in der rechten Hand.
Gopala Anumanchipalli mit der Elektrodenmatte. Bildrechte: UCSF

Doch wie gelang es ihnen überhaupt, die Daten aus dem Gehirn auszulesen? Die Ergebnisse der Forschung sind wie oft in der Geschichte eher zufällig entstanden. Um die Ursachsen und den Anfallsherd ihrer Epilepsie zu finden, wurde fünf Patienten bei einer Operation eine Elektrodenmatte auf das Gehirn gelegt. Diese Matte - etwa halb so groß wie eine Postkarte  - belauschte in den nächsten Wochen die Aktivität der Nervenzellen - eigentlich um die Epilepsie zu vermessen. Weil den Patienten langweilig war, lasen sie mehrere hundert Sätze für ein Sprachexperiment vor. Die Forscher konnten über die Elektroden so ein komplexes Signal aus dem Gehirn aufzeichnen. Das wurde analysiert, in Anweisungen an die Sprechmuskeln umgewandelt und damit wiederum der Sprachgenerator gesteuert. 

Grundstruktur der Sprache lässt sich auslesen

Das Verfahren der Forscher funktioniert sogar, wenn Gedanken gar nicht ausgesprochen werden.

Die Grundstruktur der Sprache lässt sich auslesen, auch wenn die Muskeln im Sprechapparat gar nicht angesteuert werden.

Gopala Anumanchipalli

Ob sich das Verfahren bei allen Sprechstörungen anwenden lässt, müssten zukünftige Forschungen zeigen. Die Eingabe in den Sprachgenerator könnte sich jedoch als schwierig erweisen, wenn bei Patienten mit Sprachproblemen bereits die Signale im Gehirn fehlerhaft sind.

Potenzial groß  - viele Nachforschungen nötig

Das neue System könnte laut der Forscher in Zukunft eine direkte Kommunikation ermöglichen. Es bliebe abzuwarten, ob Sprachcomputer – auch Brain-Computer-Interface (BCI)  - durch das Sammeln größerer Datensätze und die Weiterentwicklung der rechnerischen Ansätze weiter verbessert werden kann. Wissenschaftler aus der ganzen Welt und vielen Bereichen forschen gemeinsam an Sprachlernsystemen. Der rasche Fortschritt in diesem Bereich sei bemerkenswert und basiere auf der die Entstehung tiefer lernender und künstlicher neuronaler Netze.

Dieses Thema im Programm: MDR AKTUELL | 24. Februar 2019 | 09:17 Uhr

Zuletzt aktualisiert: 02. Mai 2019, 16:52 Uhr