Universität Bremen

Forschungserfolg: Sprechen durch Vorstellen

von - 12.10.2021
Foto: Illustration: CSL / Universität Bremen
Informatikern des Cognitive Systems Lab der Universität Bremen ist es jetzt gelungen, eine so genannte Neurosprachprothese zu realisieren. Damit kann vorgestellte Sprache akustisch hörbar gemacht werden – ohne Verzögerung in Echtzeit.
Große Forschungserfolge bedürfen internationaler Zusammenarbeit: Seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das ASPEN Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese. Das Ziel: Sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umzusetzen. Dieses Ziel ist nun erreicht worden: "Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen", freut sich Professorin Tanja Schultz, die Leiterin des CSL. "Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen zu sprechen, werden durch unsere Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung!" Das aufsehenerregende Forschungsergebnis wurde jetzt in dem angesehenen Wissenschaftsjournal "Nature Communications Biology" veröffentlicht.
Die Neurosprachprothese basiert auf einem Closed-Loop-System, das Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen verbindet. Dieses System wurde von Miguel Angrick am CSL entwickelt. Als Eingabe erhält es die neuronalen Signale der Nutzenden, die sich vorstellen zu sprechen. Es transformiert diese mittels maschineller Lernverfahren praktisch zeitgleich in Sprache und gibt diese hörbar als Rückmeldung an die Nutzenden aus. "Dadurch schließt sich für diese der Kreis vom Vorstellen des Sprechens und dem Hören ihrer Sprache", so Angrick.
Verwandte Themen