Wenn Menschen mit Maske sprechen, ist es schwer, jemandem zuzuhören. Hier: Deutschlands Kanzlerin Angela Merkel mit Helge Braun, Chef des Bundeskanzleramtes.

Foto: Imago / Jens Schicke

Masken gelten als eine der wichtigsten Maßnahmen gegen die Ausbreitung des Coronavirus. Deshalb wurde in Österreich auch in vielen Bereichen eine FFP2-Masken-Pflicht eingeführt. Doch der Mund-Nasen-Schutz erschwert vor allem für Menschen mit einer Hörbeeinträchtigung das Verstehen.

Das Mundbild und die Lippenbewegung sind wichtige Zusatzinformationen, um Sprache zu verstehen. Gerade unübersichtliche Kommunikationssituationen mit mehreren Sprechern sind auch für normalhörende Menschen nur noch schwer zu erfassen. Für hörbeeinträchtigte Menschen wirken sich solche Situation besonders nachteilig aus. Laut Österreichischem Schwerhörigenbund haben mehr als 1,6 Millionen Österreicher eine Höreinschränkung.

Signalverarbeitung im Hirn

Nathan Weisz und Anne Hauswald vom Zentrum für Neurokognitive Forschung der Universität Salzburg widmen sich in ihrem aktuellen Forschungsprojekt dem "Einfluss von Mund-Nasen-Schutz auf das Sprachverständnis". Die Forschungsgruppe untersucht, auf welche Weise die visuelle Signalverarbeitung im Gehirn herangezogen wird, um die akustischen Defizite zu kompensieren. Das Projekt wurde vom Wissenschaftsfonds FWF mit einer "Akutförderung Sars-CoV-2" in der Höhe von 252.000 Euro ausgestattet und läuft bis April 2023.

"Gehörgeschädigte Menschen müssen in der Kommunikation mit Maskenträgern viel mehr Anstrengung aufbieten, um die fehlenden visuellen Informationen auszugleichen", betont der Professor für physiologische Psychologie Nathan Weisz. Seine Forschungen konzentrieren sich auf die audiovisuelle Signalverarbeitung im Gehirn. Gemeinsam mit Anne Hauswald möchte er herausfinden, wie sich die Verarbeitung des Hörsignals im Gehirn durch die fehlende visuelle Information verändert.

Dazu werden Probandinnen und Probanden an eine Magnetoenzephalografie (MEG) angeschlossen. Das empfindliche Messsystem misst die Veränderungen der magnetischen Aktivität im Gehirn. "Wir sehen uns an, inwiefern visuelle und akustische Muster vom Gehirn getrackt werden", sagt Weisz.

Videos ohne Ton

Den Teilnehmerinnen und Teilnehmern werden etwa Videos von Sprechenden vorgespielt, ohne dass der Videoton mitgeliefert wird. Die aufgezeichneten Gehirnsignale werden dann mit der Tonspur des Videos, die gar nicht hörbar war, abgeglichen. Durch die MEG werde sichtbar, inwiefern die Gehirnantwort der Information folgt, die eigentlich gar nicht präsentiert wird, erläutert Weisz.

So soll der Beitrag der visuellen Signalverarbeitung im Gehirn zum akustischen Verständnis besser verstehbar werden. "Die Mundbewegungen beim Lippenlesen werden im Gehirn in eine akustische Repräsentation übersetzt", erklärt der Studienleiter.

Auch bei einem rückwärts abgespulten Video wird die Gehirnaktivität gemessen, um einen Vergleich mit Input zu haben, der keinen kommunikativen Sinn ergibt. Das soll zeigen, ob das Gehirn auch akustische Eigenschaften wie Lautstärke- oder Tonhöhenänderungen folgt, obwohl diese nur visuell vermittelt werden können, erklärt Hauswald.

Schwierige Hörsituationen

Die Untersuchungen bauen auf Studien auf, die Anne Hauswald bereits in ihrer früheren Position als Postdoc-Forscherin an der Universität Trient durchführte. "Ich konnte zeigen, dass die Gehirnaktivität im visuellen Kortex, die den Sehsinn des Menschen organisiert, auch akustischen Merkmalen wie Lautstärkeveränderungen folgt", fasst Hauswald zusammen.

"Nun stellen wir die Frage, inwieweit derartige Prozesse gerade in schwierigen Hörsituationen relevant sind." Weisz ergänzt: "Das Gehirn erarbeitet sich die Information. Es wandelt sie um von einem streng visuellen Format in eines, das dem akustischen ähnlich ist."

Denn was passiert, wenn durch die Maske der visuelle Aspekt wegfällt? Bei einem Sprecher, der deutlich spricht, ohne Störsignale gebe es weniger Probleme, sagt Weisz. Doch wenn mehrere Menschen sprechen, muss das Gehirn zunächst die anderen Sprecher versuchen auszublenden.

Gleichzeitig fehlt die visuelle Modalität, wenn die Person, der wir zuhören wollen, eine Maske trägt. Für das Gehirn fehlen also zusätzliche Informationen, die helfen könnten, den Sprecher zu verstehen. "Man muss mehr Anstrengung aufwenden, um das alleine aus dem akustischen Signal zu erkennen."

Studie soll sensibilisieren

Die Ergebnisse der Studie sollen vor allem dafür sensibilisieren, dass Personen mit einer Hörschädigung benachteiligt werden, sagt Weisz. Ein weiterer Aspekt sei, inwiefern man mit hörgeschädigten Menschen in bestimmten Situationen umgehe, wenn man mitten in einer Pandemie steckt.

Eine Möglichkeit zum besseren Verständnis sei etwa, einen Mund-Nasen-Schutz mit Sichtfenstern einzusetzen. Eine zukünftige Fragestellung in diesem Forschungsfeld werde sein, ob Entwicklungen auf dem Hörgerätemarkt die fehlende Information ergänzen können, prognostiziert Weisz. (Stefanie Ruep, 26.2.2021)