Wie entsteht Sprache?
3. Juli 2015"Die Idee ist ganz einfach", sagt Tanja Schultz. "Es geht darum, Signale, die beim Sprechen vom Gehirn gesendet werden, in Wörter und Sätze umzuwandeln." Die Informatikerin vom Karlsruher Institut für Technologie (KIT) und ihre Mitarbeiter haben es geschafft, das Gehirn beim Sprechen zu beobachten. Ungewöhnliche Umstände haben diese Tests möglich gemacht.
Als Probanden hatten sich sieben Epilepsie-Patienten in den USA zur Verfügung gestellt. Deren Gehirne waren für chirurgische Eingriffe freigelegt worden. Dazu nimmt der Arzt die Hirnschale ab und legt vorsichtig ein Elektrodennetz direkt auf die Großhirnrinde. Dann warten die Ärzte auf den nächsten Epilepsie-Anfall, damit sie notwendige Messungen machen können. Die Patienten hatten immer wieder schwere Anfälle, oft sogar mehrere innerhalb eines Tages. "Ziel dieser Art von Untersuchung ist es herauszufinden, an welchen Stellen im Gehirn die Epilepsie beginnt und welche Stellen die Mediziner im Gehirn eventuell manipulieren oder veröden könnten, um die Anzahl der Anfälle zu reduzieren", erklärt Schultz.
Für die Spezialuntersuchungen mussten die Epilepsie-Patienten ein bis zwei Wochen in der Klinik bleiben - mit offengelegtem Gehirn. Sie waren dabei örtlich betäubt, damit sie keine Schmerzen hatten, waren aber bei vollem Bewusstsein.
Für die Erforschung von Sprache und wie sie im Gehirn entsteht, waren die Elektrodennetze ursprünglich also nicht gedacht, aber sie boten ideale Voraussetzungen für die Tests der Karlsruher Forscher.
Spracherkennung
Schultz bat die Probanden, kurze Texte laut zu lesen. Die Hirnaktivitätssignale, die dabei entstanden, hat das Team aufgezeichnet und synchron dazu die akustischen Signale, also die gesprochene Sprache.
Diese beiden unterschiedlichen Datensätze legte das Forscherteam übereinander. "Auf der Basis der akustischen Signale konnten wir dann die einzelnen Laute den entsprechenden Hirnströmen zuordnen", so Schultz. Dafür haben die Karlsruher Wissenschaftler herkömmliche Spracherkennungssysteme genutzt. "Wenn nun unbekannte Sprache gesprochen wird, also Sprache, deren Inhalt wir nicht kennen, können wir anhand unserer Datenbasis herausfinden, welche Prototypen am ähnlichsten sind. So können wir dann wieder ganze Sätze zusammenbauen", erläutert Schultz.
Verschiedene Prototypen für verschiedene Sprachen
Testsprache war Englisch. Für alle Laute, die in dieser Sprache vorkommen, haben die Forscher Prototypen geschaffen und kamen dabei auf 50 verschiedene. "Wenn wir das jetzt für Deutsch machen würden, müssten wir um die 60 Prototypen lernen. Aber es ist egal, ob wir nun 60 Prototypen lernen oder 50 oder nur 40. Das Prinzip ist im Wesentlichen das der traditionellen Spracherkennung, so wie es mittlerweile in vielen Handys eingebaut ist", sagt Tanja Schultz.
Einziger - aber wichtiger - Unterschied: In traditionelle Spracherkennungssysteme werden akustische Signale eingefüttert, also Schalldruckwellen und nicht Hirnströme. "Mit dieser Strategie haben wir jetzt für jeden Laut so eine Art Datenbank mit Prototypen von Hirnaktivitätsmustern angelegt, die es jedes Mal gibt, wenn man diesen Laut produziert." Von einem Laut kann man auf die entsprechenden Hirnaktivitätsmuster schließen und umgekehrt: vom Hirnaktivitätsmuster auf die Laute. Was dabei herauskommt, ist letztendlich gesprochene Sprache.
Hilfe für "Locked-in-Patienten"
Für die Tests haben die Probanden kurze Texte laut vorgelesen. Die Wissenschaftler haben aber die Hoffnung, dass das Prinzip auch dann funktioniert, wenn Patienten Wörter und Texte nicht laut aussprechen, sondern sich Sprache nur vorstellen und Wörter und Sätze in Gedanken lesen.
Noch ist das eine Vision. Aber in ferner Zukunft könnte das sogenannte "Brain-to–text"-Prinzip vielleicht Locked-in-Patienten helfen, sich verständlich zu machen. Diese Menschen erleben ihre Außenwelt völlig klar, sind bei klarem Bewusstsein, können sich der Außenwelt aber überhaupt nicht mitteilen. Diese Patienten sind in ihrem Körper eingeschlossen, können noch nicht einmal über einen Augenschlag oder über eine Augenbewegung kommunizieren.
"Die Hoffnung wäre, dass diese Patienten sich mental bewusst vorstellen, etwas zu sagen, und dass man mit unserer Technologie die Signale im Gehirn unmittelbar in Wörter transformieren und dann eben auch aussprechen könnte. Wir können durch diese Technologie dem Gehirn beim Sprechen zugucken, und wir können ein besseres Verständnis dafür aufbauen, welche Hirnregionen beim Sprechen beteiligt sind und wie sie miteinander interagieren. So könnte man Locked-in-Patienten vielleicht wieder eine Stimme geben."
Schultz ist zuversichtlich: "Ich habe die Hoffnung, dass ich das noch erlebe."Die Gedanken anderer Menschen lesen zu können, so die Informatikerin weiter, das werde aber nicht funktionieren.