Ein neuartiges Spracherkennungssystem kann angeblich besser als der Mensch gesprochene Wörter identifizieren. Das Berger-Liaw-System, benannt nach seinen Entwicklern Theodore W. Berger und Jim-Shih Liaw von der University of Southern California, habe in Tests mit wenigen gesprochenen Wörtern nicht nur alle existierenden Computer-basierenden Spracherkenner, sondern auch die schärfsten menschlichen Ohren übertroffen, heißt es in einer Mitteilung der Universität. Den Angaben zufolge werden die gesuchten Wörter selbst dann noch erkannt, wenn sie von weißem Rauschen mit 1000-fach höherer Amplitude überlagert sind. Vor einer akustischen Kulisse von anderen Stimmen und Verkehrsgeräuschen mit 560-mal höherem Pegel als das Zielsignal betrage die Erkennungsleistung immer noch 60 Prozent. Bisher, so die Universität, versagten die besten Spracherkennungssysteme bereits bei einem Störgeräuschpegel von zehn Prozent des Nutzsignals. Bei einer etwas stärkeren Geräuschkulisse sei auch ein menschlicher Zuhörer kaum noch in der Lage, die Wörter sicher zu identifizieren. Grundlage des Berger-Liaw-Systems ist der Mitteilung zufolge ein neu entwickeltes neuronales Netz aus nur elf Neuronen mit lediglich 30 Verknüpfungen. Der Durchbruch sei durch fundamentales Überdenken der Architektur neuronaler Netz gelungen. Dabei hätten Berger und Liaw sich wesentlich stärker als bisher üblich an der Signalcharakteristik in Gehirnen aus "Fleisch und Blut" orientiert. "Bisher", wird Berger zitiert, "haben sich die Bemühungen zur Schaffung von neuronalen Netzen darauf beschränkt, Silizium-Neuronen diskrete Signale variabler Intensität übertragen zu lassen, alles ebenso getaktet wie der Computer getaktet wird. Aber in lebenden Zellen ist die zeitliche Dimension, sowohl bei dem anregenden Signal wie auch bei der Antwort, ebenso wichtig wie die Intensität." (heise)