Warum man Rankings ernst nehmen muss.

[20. Februar 2016] Ranglisten sind „in“. Das gilt inzwischen auch für Universitätsrankings. Weshalb sie mehr als eine zeitgeistige Modeerscheinung sind, erläutert Rektor Professor Dr. Ulrich Radtke.

Zu Recht werden Uni-Rankings häufig kritisiert, schließlich bewerten sie komplexe Leistungen in Forschung, Lehre und Dienstleistung anhand weniger, leicht handhabbarer Parameter. Der Komplexität und Diversität einer Universität wird so auf keinen Fall Rechnung getragen. Das Nichtsichtbare gerate in Rechtfertigungsnot, monierte die ZEIT erst kürzlich.1 Es droht aus dem Blick zu geraten, dass Erkenntnis und ihre Vermittlung das Ziel der Wissenschaft ist, nicht der Wettbewerb.

Gleichwohl: Die Komplexität zu reduzieren, ist bequem. Aber muss man deswegen Rankings ernst nehmen? Ja! Denn auch in Deutschland werden sie mittlerweile sys­temrelevant2 – nicht zuletzt, da auch Politiker/innen sie für sich entdeckt haben und ihre Universitäten gerne vorn sehen möchten.

Es gibt immer mehr globale Hochschulrankings:
Medial präsent sind vor allem die THE-Rankings (Times Higher Education World University Rankings), das Shanghai-Ranking (Academic Ranking of World Universities, ARWU) der Shanghai Jiao Tong University und die QS World University Rankings (Quacquarelli Symonds).

Doch wie kommt die Bewertung der Universitäten zustande? Fast die Hälfte der Gesamtnote kann die Reputation der Universität ausmachen: Weltweit werden jährlich tausende Wissenschaftler/innen befragt, was sie von anderen Hochschulen halten – wie viele darauf antworten, wird nicht mitgeteilt. Ihre Einschätzungen beruhen meist auf reinem „Hörensagen“, Traditionshochschulen profitieren davon. So funktioniert eben Reputation, objektiv ist das nicht.

Zusätzlich werden Zitationen, Publikationen, Forschungsmittel, Abschlüsse, Preise etc. mitbewertet. Die Position ein und derselben Universität kann je nach Ranking sehr unterschiedlich ausfallen.3 Nur begrenzt sind die Indikatoren und das Gesamtergebnis geeignet, komplexe Sachverhalte in Forschung, Lehre und Wissenstransfer abzubilden.

Interpretationsspielräume bei der Datensammlung und eine intransparente Verrechnung führen dazu, dass die Ergebnisse nicht direkt vergleichbar und manipulationsanfällig sind. Selbst das Publikationsverhalten lässt sich nur schwer als objektive Datenbasis heranziehen. Forschenden ist ja bewusst, dass sie in verschiedenen Kontexten an den Zahlen ihrer Veröffentlichungen und Zitierungen gemessen werden. Es ist nicht auszuschließen, dass einige ihr Verhalten dementsprechend anpassen.4

Weil die Reputation ein so hohes Gewicht hat, haben es jüngere Universitäten grundsätzlich schwerer. Um ­solche Benachteiligungen abzumildern, haben QS (die ­besten 50) und THE (die besten „one hundred under fifty“) Rankings für die Universitäten entwickelt, die jünger als 50 Jahre sind. Beim THE-Ranking belegt die UDE aktuell Platz 59, acht Plätze besser als im letzten Jahr – als zweitjüngste Universität im Wettbewerb.

Rankings kosten die Universitäten sehr viel Zeit und Ressourcen

Auf nationaler Ebene etablierte sich schon 1998 das Ranking des Centrums für Hochschulentwicklung (CHE). Es richtet sich vor allem an Studieninteressierte, informiert über einzelne Studienfächer und erreicht im deutschsprachigen Raum – quasi konkurrenzlos – einen großen Adressatenkreis. Deshalb ist die Teilnahme aller Fakultäten wichtig, um das Fächerspektrum einer Universität für die Studieninteressierten abzubilden. Auch die Methodik dieses Rankings wird vielfach kritisiert. Doch haben Fachgesellschaften hier mehr Möglichkeiten, sich in die Weiterentwicklung der Methodik einzubringen.

Die Europäische Kommission beschreitet mit der Förderung von U-Multirank einen vielversprechenden Weg: Dieses Ranking verzichtet auf die Berechnung eines Gesamtergebnisses und die Bildung einer Rangliste. Stattdessen können die Nutzer/innen aus rund 30 Indikatoren die Kriterien auswählen, nach denen sie vergleichen möchten. Entscheidend für den Erfolg dieses neuen Ansatzes ist, wie viele Hochschulen sich daran beteiligen. Gemeinsam mit ihren Partnern aus dem International Research Universities Network (IRUN) hat die UDE entschieden, U-Multirank zu unterstützen.

Für die meisten Rankings kostet es die Universitäten sehr viel Zeit und Ressourcen, die erforderlichen Daten zur Verfügung zu stellen, vor allem wenn die Betrachtung bis in die Fächerebene reicht. Mit den üblicherweise erfassten Datensätzen kommt man nicht weit, und die Anforderungen unterscheiden sich auch noch von Ranking zu Ranking.

Vor zehn Jahren wurden globale Universitätsrankings noch als rein angelsächsisches Marketinginstrument belächelt oder ignoriert. Das ist vorbei, auch in Deutschland. „Lust auf Listen“ titelte die Süddeutsche Zeitung im Sommer und beleuchtete das Hochschnellen von Tübingen und Dresden um mehr als hundert Plätze im THE-Ranking 2014.5

Beide Universitäten profitierten als Erste von einem Gemeinschaftsprojekt, das vom Auswärtigen Amt finanziert wurde. Dessen Ziel war, insbesondere die Daten­eingabe den internationalen Usancen anzupassen: Im angelsächsischen Raum firmieren zum Beispiel Doktorand/innen unter „Studierende“. Damit änderte sich schlagartig das ergebnisrelevante Verhältnis von Publikationen je Wissenschaftler/in (researcher) der Einrichtung.

Um die Publikationsleistung einer Universität angemessen abzubilden, sollte zudem der Name so angegeben werden, dass er in Publikationsdatenbanken wie „Web of Science“ oder „Scopus“ korrekt zugeordnet werden kann.6 Oft finden sich große Namensvariationen in Deutsch und Englisch. Die Ergebnisse des Pilot-Projekts konnten dann alle deutschen Unis für das THE-Ranking 2015 nutzen – mit beeindruckendem Erfolg: Die UDE stieg 100 Plätze und gehört nun zu den 201-250 besten Universitäten weltweit. Auch in rein bibliometrischen Vergleichen wie dem Leiden-Ranking oder dem Ranking der National Taiwan University belegt die UDE vergleichbare Plätze. Im THE-Ranking 2015 verbesserten sich auch fast alle anderen platzierten deutschen Universitäten deutlich.

Dennoch: Auch wer sich gut vorbereitet und mit der Methodik der Rankings auseinandersetzt, ist als Universität nicht geschützt vor der hohen Volatilität, der Änderung der Indikatoren oder ihrer – zum Teil willkürlich erscheinenden – Wichtung. So führte die neue Definition des Zitations-Indikators beim diesjährigen QS-Ranking zu teils dramatisch schlechteren Platzierungen bei der Hälfte der 41 beteiligten deutschen Universitäten und nur bei wenigen zu vergleichsweise geringen Verbesserungen.

Wir sollten im Blick behalten, dass die „Spielregeln“ der globalen Rankings nicht in Deutschland gemacht werden. Da ihnen das Modell der angelsächsischen Forschungsuniversität zugrunde liegt, ist es auch nicht weiter verwunderlich, dass auf den Spitzenplätzen fast nur anglo­amerikanische Universitäten auftauchen. Schließlich entwickelten sich die Ranglisten aus dem marktwirtschaftlich orientierten Wettbewerb privater Universitäten um zahlungskräftige Studierende.

Zinsgewinne aus ihren milliardenschweren Stiftungsgeldern (endowments) ermöglichen beispielsweise den nordamerikanischen Elite-Universitäten, ihre Attrakti­vität noch zu steigern: Geringe Lehrverpflichtungen und günstige Betreuungsverhältnisse ziehen nicht nur leis­tungsstarke Wissenschaftler/innen und Studierende an, sondern sind auch wichtige Beurteilungskriterien der Rankings. Selbst die stärksten deutschen Universitäten haben eine Finanzausstattung, die nur im niedrigen Prozentbereich der Ivy League-Hochschulen liegt – über die Betreuungsverhältnisse an deutschen Universitäten (1 : 63) sprechen wir hier lieber nicht.

Wer in Rankings auftaucht, ist international sichtbarer

Gleichwohl ist die qualitative Breite der deutschen Hochschulen, an denen exzellente Forschungsbereiche auf viele Standorte verteilt sind, die Stärke der hiesigen Wissenschaftslandschaft. Unterschiede zum angloamerikanischen System, etwa die institutionelle Trennung von universitärer und außeruniversitärer Forschung, werden in den globalen Rankings nicht berücksichtigt.

De facto gibt es jedoch kein Zurück mehr: Die Option auszusteigen existiert nicht. Wer in Rankings auftaucht, ist international sichtbarer: Studierende oder Wissenschaftler/innen und auch Staaten orientieren sich immer mehr daran. Indien verpflichtet seine Universitäten zum Beispiel, nur mit den Top 500 weltweit zu kooperieren. Manche schicken die Stipendiaten nur in die Top 400, andere bürgern diejenigen schneller ein, die den Abschluss einer hoch gerankten Universität vorweisen können usw. Fazit: Deutsche Universitäten sollten die normative Wirkung von Rankings nicht unterschätzen.

Im Kampf um die „besten Köpfe“ und Fördermittel spielt die Sichtbarkeit eine immer größere Rolle. Dies mag auch erklären, warum sich deutsche Universitäten zum Beispiel zum Kreis der U15 oder TU9 zusammen­geschlossen haben: Selbstdefinierte Exzellenz soll helfen, sich gegenüber dem Rest abzusetzen. Die Exzellenzinitiative hat die vertikale Differenzierung der deutschen Universitätslandschaft weiter gefördert. Ab 2017 sollen im Rahmen ihrer Fortsetzung die starken Wissenschaftsstandorte weiter gestärkt und international noch sicht­barer gemacht werden.

Wie sollten wir mit Rankings umgehen? Dämonisieren oder ignorieren ist genauso wenig hilfreich, wie sich in seiner Strategie nur darauf zu konzentrieren, die Stufenleiter hochzuklettern. Wichtig ist eine transparente Rankingerstellung; und man sollte die Regeln genau kennen, um sich im internationalen Wettbewerb gut aufzustellen.

Darüber hinaus ist Aufklärung zu leisten: Auch wenn es schwierig ist, international dafür zu werben, sich dem Rankingtrend entgegen zu stellen, so ist es umso wich­tiger, die deutsche Öffentlichkeit und Politik auf die gravierenden Schwächen globaler Rankings hinzuweisen. Ihnen sollte klar sein, dass sie mit diesem Instrument keinen Spiegel in der Hand halten, der ihnen verlässlich sagt, wie leistungsfähig die deutsche Hochschullandschaft wirklich ist.

1: Barbara Zehnpfennig, DIE ZEIT, 2015, Nr. 24, S. 60
2: vgl. auch Hazelkorn et al., „Rankings in Institutional Strategies and
Processes: Impact or Illusion?, EUA-Publications, 2014
3: ebda.
4: Jürgen Kaube, Freiburger Universitätsblätter, Heft 207, 2015, S. 31-41
5: Yannik Buhl, Süddeutsche Zeitung, 15.06.2015
6: Abschlussbericht zum Pilotprojekt „Verbesserung internationaler Rankingergebnisse deutscher Universitäten – Die Technische Universität Dresden und die Universität Tübingen als Vorreiter für das internationale Bildungsmarketing des Standorts Deutschland“, 30.04.2015

Advertisements