"Österreich hatte ein schlechtes Jahr", lässt uns das aktuelle Times Higher Education Ranking im Hinblick auf das Abschneiden der heimischen Universitäten ausrichten. Das ist guter Stoff für Schlagzeilen, aber wer will das eigentlich wissen? Kritische Studierende? Das Ministerium? Rankings sehen ihre Adressaten wesentlich als "Konsumenten", Universitäten und deren Bildungsangebot als "Produkte" am Bildungsmarkt. Dieser ökonomische Aspekt mag teilweise legitim sein. Weil aber Bildung mehr ist als das Konsumieren von Wissen und der Erwerb von Skills zur Gewinnmaximierung einer persönlichen Lebensbilanz, nämlich das anstrengende und lebenslange Bemühen um Orientierung in einer komplexen Welt, sind die Rankings von sehr begrenzter Aussagekraft. Genau diese Grenzen gilt es näher anzuschauen, um aus den Ergebnissen auch die richtigen Schlüsse ziehen zu können.

Rankings liegt eine implizite Vorstellung von universitärer Qualität zugrunde. Deren Definition wird nicht offengelegt, bestimmt aber maßgeblich die Auswahl der Indikatoren, auf denen die Bewertung beruht. Dies führt dazu, dass leicht quantifizierbare Indikatoren dominieren, aber schon Albert Einstein wusste: "Nicht alles, was zählt, kann gezählt werden, und nicht alles, was gezählt werden kann, zählt."

Besonders problematisch sind bibliometrische Indikatoren, also jene, die messen, wie oft ein wissenschaftlicher Artikel von anderen Fachkollegen zitiert wird. Die Grundannahme dahinter ist, dass häufiger zitierte Artikel von besonderem Wert für die Forschung sind. Und je höher das Renommee einer Zeitschrift ist, in der ein Artikel publiziert bzw. zitiert wird, desto mehr Bedeutung wird dem Artikel zugeschrieben, ganz unabhängig von seinem Inhalt.

Diese Auswahl der Indikatoren hat auch Rückwirkungen auf die bewerteten Unis: Im besten Fall spornen sie Forscher/-innen und Lehrende zu besseren Leistungen an. Als unerwünschte Nebenwirkungen können sie aber zu einer Zielverschiebung führen: Statt des Strebens nach wissenschaftlicher Erkenntnis treten Strategien in den Vordergrund, um Daten für bestimmte Indikatoren zu optimieren.

Wissenschaftliche Arbeit braucht Zeit und ist nicht steuerbar. Viele Aufsätze in naturwissenschaftlichen Journalen mit hohem Impactfactor bringen Universitäten in Rankings nach oben. Das Buch eines Geisteswissenschaftlers, an dem er jahrelang schreibt, das Werk einer Künstlerin verändern vielleicht die (wissenschaftliche) Welt viel nachhaltiger, bleiben aber im Bewertungssystem vergleichsweise unsichtbar.

Mit dieser Zielverschiebung droht mittelfristig auch eine Ressourcenverschiebung, die jene Disziplinen, für die keine gut quantifizierbaren Systeme der Leistungsmessung anwendbar sind, notwendigerweise ins Hintertreffen geraten lassen. Nicht zuletzt spaltet sich dadurch die Universitas von Lehrenden, Forschenden und Studierenden in Gewinner und Verlierer.

Auch gesellschaftliche Kernaufgaben der Universitäten lassen sich nicht in Indikatoren abbilden, und das ständige Schielen nach Rankings führt dazu, dass diese aus dem Blickfeld geraten.

Sind aber wenigstens Aussagen über die scheinbaren Hard Facts wie die Ausstattung einer Universität verlässlich? Bewerten Rankings das Vorhandensein modernster Geräte und Infrastruktur, so sagt das noch nichts darüber aus, wem diese zugänglich gemacht werden, ob sie breit zum Einsatz kommen oder einer institutionellen Elite vorbehalten bleiben. Dasselbe gilt für die Spitzenleistungen der Forscher/-innen: In welchem Maße erreichen diese die Studierenden, inwieweit partizipieren diese am Prozess der Entwicklung von Erkenntnissen in einer Universität?

Universitäten in englischsprachigen Ländern sind tendenziell bevorzugt, weil anderssprachige Werke weniger verbreitet und zitiert werden, was aber nichts mit deren inhaltlicher Qualität zu tun hat. Und die Tendenz, dass amerikanische Forscher/-innen primär ihre Landsleute zitieren, aber seltener auf Forschungsergebnisse aus anderen Ländern zurückgreifen, verleiht den amerikanischen Universitäten gewaltigen Auftrieb in Richtung Spitzenplätze.

Viele Rankings beziehen auch die Reputation von Einrichtungen ein, die über die Befragungen von anerkannten Fachkollegen (Peers) ermittelt wird. Hier reproduzieren sich dann Bewertungen in geschlossenen Systemen, d. h. Universitäten bekommen hohe Reputationswerte, weil sie in vorangegangenen Rankings schon hoch gereiht waren. Wer würde es etwa wagen, an der Reputation von Harvard und Yale zugunsten unbekannter, aber exzellenter Newcomer zu kratzen und damit das ganze etablierte System infrage zu stellen, in dem man sich selbst einen Platz erkämpft hat? Auch Studenten, die im Rahmen von Rankings befragt werden, tendieren dazu, der eigenen Institution nicht durch kritische Bemerkungen zu schaden.

Rankings sind so gut oder schlecht wie das Wissen der Leser/-innen, die die Ergebnisse als Argumente verwenden. Nach dem Verebben des alljährlich wiederkehrenden Aufmerksamkeitshochs sollte sich der öffentliche Nachdenkprozess dem gesellschaftlichen Wert und der Aufgabe universitärer Bildung widmen. (Elisabeth Fiorioli , DER STANDARD, 4.10.2012)