Der von einem österreichischen Forscherteam entwickelte "US Election 2008 Web Monitor" analysiert mittels semantischer Technologien die Trends in der Online-Community.

*****

Stehen Wahlen an, sind es für gewöhnlich nicht nur die Kandidaten, die um das beste Ergebnis rittern - schon Wochen und Monate vor dem entscheidenden Termin übertreffen sich Analysten, Politologen, Meinungsforscher und sonstige Stimmungspropheten gegenseitig darin, das Abstimmungsverhalten möglichst genau in Statistiken, Charts und Barometern vorauszusagen. Dass dabei kein Weg an der virtuellen Welt vorbeiführt, kann man nicht nur an den per YouTube geführten Debatten des laufenden Wahlkampfs in den USA und den Kampagnen im Second Life ablesen.

Mitte Dezember des vergangenen Jahres, also elf Monate vor den US-Präsidentschaftswahlen, hat ein österreichisches Forscherteam ein vollautomatisiertes System zur Trendanalyse präsentiert, das sich allein auf die Web-Community und Online-Ressourcen stützt. "Es gibt viele Methoden, um den Erfolg von Wahlkampfprogrammen zu messen", sagt Arno Scharl, Leiter des Instituts für Neue Medientechnologie an der privaten Modul University Vienna, die seit Oktober 2007 am Wiener Kahlenberg residiert. "Die meisten Methoden konzentrieren sich auf Meinungsumfragen. Diese geben zwar ein repräsentatives Stimmungsbild aus Konsumentensicht, lassen aber das Informationsangebot, insbesondere im Internet, unberücksichtigt", erläutert Scharl die Motivation hinter dem Projekt. Zusammen mit Experten der Wirtschaftsuniversität Wien und der Technischen Universität Graz haben Scharl und seine Kollegen von der Modul-Universität ein Web-Portal entwickelt, auf dem mit wenigen Klicks ersichtlich ist, wie die Online-Berichterstattung die Auftritte von Hillary Clinton, Barack Obama, Mike Huckabee, Mitt Romney und Co beurteilt - und zwar aus der Sicht von Online-Medien, NGOs, Bloggern und führenden US-Unternehmen.

Auf einem zweiten Portal, der Mediawatch, kann auf die analysierten Publikationen zugegriffen werden: Mittels visueller Darstellungen von geografischen Karten, ontologischen Begriffsnetzwerken und Wissenslandschaften, welche die Themen in Topografien einbetten, werden die verschiedenen Quellen in einen Kontext gesetzt. Darüber hinaus können die User selbst ihre Stimme abgeben.

"Web Mining"

"Es geht uns um die Wechselwirkung und Unterschiede in der Berichterstattung von Medien im Vergleich zu Umweltorganisation, kommerziellen Interessensgruppen und den Usern selbst. Schließlich ist es ein Merkmal des Web 2.0, dass sich Informationsangebot und -nachfrage vermischen", erklärt der Informationswisschafter Arno Scharl, der bereits seit 1999 im Bereich "Web Mining" durch semantische Technologien forscht.

Die technologische Weiterentwicklung des Semantic Web - die logische Verknüpfung und Verarbeitung von verschiedenen im Internet verfügbaren Daten - ist auch die Basis des "US Election 2008 Web Monitor": Seit Oktober durchforstet ein Webcrawler einmal pro Woche 800.000 Web-Dokumente von 150 englischsprachigen Medien, 50 Umweltorganisationen, den 1000 umsatzstärksten US-Unternehmen sowie von 1000 populären politischen Blogs.

Anhand einer automatischen semantischen Analyse werden Charts erstellt, welche sowohl die Präsenz der einzelnen Kandidaten in der Berichterstattung zeigen ("Attention") als auch, ob sie in Zusammenhang mit definierten positiven oder negativen Begriffen erwähnt werden ("Sentiment") und mit welchen Themen sie in Verbindung gebracht werden ("Keywords").

Wobei Fehlinterpretationen und wenig aussagekräftige Nennungen nicht auszuschließen sind, wie auch Scharl einräumt: "Sarkasmus kann das System (noch) nicht erkennen." Aufgrund der Menge der Information komme es aber auf einzelne falsche Ergebnisse nicht an.

Schon das Pilotprojekt zur US-Präsidentschaftswahl im Jahr 2004 habe gezeigt, dass die semantische Webanalyse ein sehr realistisches Bild abgebe.

"Es geht vor allem darum, den Informationsraum im Internet greifbarer zu machen und neuartige semantische Methoden zu finden, um die Informationen auf intuitive Weise zu veranschaulichen", fasst Scharl das Ziel des Projekts zusammen, das im Rahmen der Programmlinie FIT-IT Semantic Systems des Bundesministeriums für Verkehr, Innovation und Technologie gefördert wird und in Zusammenarbeit mit Industriepartnern realisiert wurde.

Denn die Basistechnologie, mit der derzeit Wahltrends und -analysen aufbereitet werden, soll noch weitere Anwendungsgebiete erschließen: Gemeinsam mit Nasa World Wind, der Open-Source-Variante von Google Earth, will das Team von Scharl dreidimensionale Wissensgloben erstellen, die der Informationsverbreitung in den neuen interaktiven Online-Medien Rechnung tragen. Bis dahin wird erst einmal gewählt. (Karin Krichmayr, DER STANDARD, Print-Ausgabe, 9.1.2008)