Viel Altes und wenig NeuesZweiter Hochschulranking-Report der europäischen Rektorenkonferenz
Die European University Association (EUA) hat einen Report über Hochschul-Rankings veröffentlicht und kritisiert deren Gefahren (z.B. "The winner takes it all") – um am Ende für eine Art europäisches Ranking zu plädieren
Im April 2013 veröffentlichte die European University Association (EUA) ihren zweiten internationalen Ranking-Report mit dem Titel »Global University Rankings and Their Impact – Report II«. Es handelt sich dabei ausdrücklich um ein Update des bereits im Juni 2011 veröffentlichten ersten Reports unter dem gleichen Titel.1
Zum Hintergrund: Die EUA ist eine Art europäischer Hochschulrektorenkonferenz, die etwa 850 Hochschulen in 47 Ländern vertritt. Ihr Ausgangspunkt ist die wachsende Bedeutung von Rankinglisten seitdem 2003 erstmalig ein internationales Ranking unter dem Titel Academic Ranking of Word Universities (ARWU), das sog. Shanghai Ranking, veröffentlicht wurde. Dieser Bedeutungszuwachs von Rankings bezieht sich nicht nur auf die politisch-öffentliche Kommunikation von Hochschulleistungen, sondern ebenso auf angestrengte Strukturveränderungen des jeweiligen Hochschulmanagements (»strategic planning«) und Ressourcenzuteilungen durch die Politik infolge von Rankingplatzierungen. Zu deutsch: Rankings entfalten unabhängig von ihrer Validität und der anhaltenden Kritik an ihnen eine erhebliche gesellschaftliche und steuerungspolitische Wirkung.
Im Zentrum des 2011-EUA-Reports stand eine ausführliche – durchaus nicht unkritische – Analyse einflussreicher internationaler Rankings wie des Shanghai Rankings (ARWU), des Times Higher Education Rankings (THE) – seit 2010 in Kooperation mit der Literaturdatenbank Thomson Reuters (THE-TR) – oder des Center for Science and Technology Studies (CWTS) at Leiden University (das niederländische Leiden-Ranking). Im Mittelpunkt der Kritik durch die EUA stand die Aussage, dass diese dominanten Rankings vor allem den Output an sog. Spitzenforschung (s.u.) dokumentieren und damit eine wünschenswerte differenzierte Entwicklung vielfältiger Hochschulfunktionen und –profile eher behindern würden.
Das aktuelle Update sei allerdings deswegen erforderlich, da einzelne dieser Rankings ihre Methoden und Indikatoren verfeinert und ihre Provider zum Teil auf Kritik reagiert hätten. Schauen wir uns die Sache vor dem Hintergrund der Kritik von vor zwei Jahren einmal genauer an.
Scharfe Kritik 2011
Fachseminar Rankinglisten als Steuerungsmedium von Hochschulpolitik, 04.+04.04.2013 in Bielefeld
Wer sich intensiver und kritisch mit dem Thema Hochschulrankings befassen will, dem sei die Teilnahme am Fachseminar von Hans-Böckler-Stiftung, fzs und BdWi zur Wissenschaftsmessung am Samstag, 04.05.2013 und Sonntag, 05.05.2013 in Bielefeld empfohlen. Sowohl Torsten Bultmann, Autor dieses Artikels als auch Oliver Iost, Herausgeber von Studis Online, sind dort anwesend und referieren.
Das Resumée von 2011 lässt sich in der Aussage zusammenfassen, dass Rankings mehr Schaden als Nutzen bewirken: »At present, it would be difficult to argue, that the benefits offered by the information that rankings provide (…..) are greater than he negative effects of the so-called ›unwanted consequences‹ of rankings.« (I, 68)
Die Rankings verengen den Kreis international wahrgenommener Universitäten auf etwa höchstens 500. Das sind ein bis drei Prozent (in Zahlen: 200-500) der insgesamt 17.Tsd. Universitäten weltweit. (I, 13) Diese Selektion kommt dadurch zustande, dass tatsächlich (Spitzen-)Forschungsindikatoren für die Platzierung den Ausschlag geben. Genauer ausgedrückt: es dominieren bibliometrische Indikatoren2, da Forschungsproduktivität vor allem anhand der Anzahl an Publikationen – und/oder der Zitationshäufikeit – in überwiegend englischsprachigen Fachzeitschriften, den streng begutachteten sog. high impacted journals, die in der Regel im web of science (der derzeit einflussreichsten Literaturdatenbank) erfasst sind, gemessen wird. Die Macher des Shanghai Rankings beanspruchen allerdings auch die Qualität der Lehre an den von ihnen gerankten Hochschulen zu bewerten: indem sie die Nobelpreisträger zählen, die aus den Studienabsolventen einer bestimmten Hochschule hervor gegangen sind. (I, 63; II, 17) Wenn jemand also zu einer anderen Zeit an einem anderen Ort einen Nobelpreis erhält, wird dies positiv auf der Lehrqualität der Hochschule angerechnet, an der er einmal studiert hat. Ein weitgehend indiskutables Kriterium.
Strukturpolitisch können diese Rankings äußerst negative Konsequenzen haben, wenn Hochschulleitungen vor allen Dingen auf eine Verbesserung der Performance auf den Gebieten bedacht sind, die durch die entsprechenden Indikatoren gemessen werden, was in der Regel mit einer Vernachlässigung anderer gesellschaftlicher Aufgaben und Entwicklungspotentiale der Hochschule einher geht. Die EUA kleidet das Problem in die rhetorische Frage: »Improving quality or improving ranking positions?« (I, 15)
Fachlich dominieren in den (fast ausschließlich) englischsprachigen Veröffentlichungen Medizin und Naturwissenschaften; nicht nur weil hier die Forschungsaktivität stark ist, sondern auch weil in den hinzugezogenen Literaturdatenbanken Geisteswissenschaften (humanities) nicht und Sozialwissenschaften (social sciences) gering beachtet werden. Schließlich fallen andere Wissenschaftskulturen, Wissenschaftssprachen und Publikationsformate außerhalb des angelsächsischen Wissenschaftsraumes durch den Rost und bleiben unbeachtet. Zu letzterem gehören etwa Buchpublikationen und Sammelbände. (I, 64)
Trotz dieser heftigen Kritik – und in gewisser Weise auch in einem logischen Bruch zu ihr – stellt die EUA Rankinglisten nicht grundsätzlich infrage. Offenbar deswegen nicht, weil sie diese offenbar für eine nicht mehr hintergehbare neuartige wissenschaftspolitische Realität hält: »Since the emergence of global rankings, universities have been unable to avoid national and international comparisons…« (I, 68) Das ist genau betrachtet ein unsauberes Überwältigungsargument, weil die Frage, warum Vergleiche und Transparenz über einen Wettbewerb, der im Kern ein Kampf um ausdrücklich zu diesem Zweck knapp gehaltene Ressourcen ist, erzeugt werden sollen, gar nicht mehr gestellt wird.
Übrig bleibt folglich nur die Position, sich für ›bessere‹ Rankings einzusetzen. Die EUA fordert »more ›democratic‹ rankings.« (I, 16) Diese sollen die Vielfalt der Hochschulfunktion von der Qualität der Lehre, über den Beitrag zur regionalen Entwicklung bis hin zur wissenschaftlichen berufsbegleitenden Weiterbildung dokumentieren. Diese Aufgaben – und weitere mehr – beschreiben tatsächlich die gesellschaftliche Verantwortung der Hochschulen, wofür sie eine angemessene öffentliche Ausstattung erhalten müssen. Warum die Erfüllung dieser Aufgaben dem Zufallsselektionsprinzip eines künstlich konstruierten Wettbewerbs überlassen werden soll, kann im Rahmen der EUA-Position nicht einmal diskutiert werden. Der Organisation schwebt offenbar die Etablierung einer eigenen europäischen Rankingkultur unter ihrem maßgeblichen Einfluss vor.
Neue Entwicklungen bis 2013
Der EUA-Report II stellt summarisch eine wachsende Bedeutung von Rankings für politische Entscheidungen fest, welche das Bildungssystem betreffen. (II, 21). Das mag in einem generellen Trend liegen, immer umfangreichere Datenmengen zu produzieren und auf deren Grundlage zusätzliche gesellschaftliche Bereiche dem Wettbewerb auszusetzen.
Dafür einige exemplarische Beispiele: Japan, Taiwan, Singapur und Malaysia ziehen das Muster der wichtigsten internationalen Rankings heran, um in deren Richtung ihre Hochschulsysteme grundlegend zu restrukturieren. Dafür erhalten ausgewählte Universitäten (außer in Singapur) zusätzliche finanzielle Ressourcen, um ihren Forschungsoutput – und damit die Performance in den Rankings - zu verbessern. (II, 24)
Im Juni 2012 verkündete die University Grants Commission in India nur mit solchen ausländischen Universitäten in bilateralen Programmen zusammen arbeiten zu wollen, die unter den Top-500 des ARWU- oder THE-Rankings rangieren. (II, 23).
Offenbar hat sich auch der Trend verstärkt, dass sich ein Typus »cosmopolitan postgraduate students« - man könnte auch ergänzen: aus wohlhabenderen bildungsnahen Schichten – herausbildet, der gezielt versucht, sich in den hoch gerankten ›world-class universities‹ einzuschreiben. (II, 22). Dänemark vergibt green-cards für hochqualifizierte Arbeitsimmigranten in Abhängigkeit von einem Punktesystem. In 100 Punkten wird der Bildungsstand gemessen, mit bis zu 15 Punkte kann die Rankingposition der Universität, an der die Einwanderungswilligen studiert haben, gewichtet werden. (II, 23). Anders ausgedrückt: Rankinglisten scheinen offenbar internationale Bildungs- und Arbeitswanderungsbewegungen zunehmend zu beeinflussen.
Sind Rankings besser geworden?
Die EUA begründet die Aktualisierung ihres 2011er-Reports mit zahlreichen Änderungen durch die Ranking-Produzenten: diese hätten ihre Methoden verfeinert, ihre Indikatoren oder deren Gewichtung zueinander modifiziert, neue Rankings seien zudem entstanden und neue Datenerhebungsbereiche erschlossen worden. Das Leiden-Ranking etwa misst neuerdings die internationale Zusammenarbeit von Universitäten in gemeinsamen Publikationen. (II, 12) THE hat ein eigenes Ranking für Universitäten entwickelt, die jünger als 50 Jahre sind. (II, 12) Schließlich seien etwa auch die bibliometrischen Indikatoren weniger fehleranfälliger geworden. (II, 16) Grundlegend hätte sich der Service gegenüber den Nutzern verbessert. Einige Ranking-Provider stellen sog. multi-indicator-tools zu Verfügung; die es ermöglichen, die zur Verfügung gestellten Daten für verschiedene Bedürfnisse aufzubereiten und zu sortieren. (II, 14)
Ein Beispiel für Änderungen: THE - Ranking 2010 vs 2011/2012
Dreizehn Indikatoren verwendet das Ranking insgesamt, neun wurden zwischen 2010 und 2011/2012 verändert. Meist betraf das "nur" die Gewichtung, in vier Fällen wurde auch die Berechnungsmethode modifiziert.
Die inzwischen drei Indikatoren, die die Internationalität der Universitäten messen sollen, haben nun einen Anteil von 7,5% (bis 2010 5% und nur zwei Indikatoren).
Gesunken ist das Gewicht der Zitationen, von 32,5% auf 30%.
Der Bereich Forschung hat insgesamt weiterhin 30% Anteil, allerdings wurden die drei verbliebenen Indikatoren neu gewichtet (Reputation -1,5%, Forschungseinkünfte +0,75%, Zahl der publizierten Papiers +1,5%) und teilweise anderes berechnet ("Normalisierung"). Der Indikator Anteil der öffentlichen Forschungsförderung am gesamten Forschungseinkommen wurde gestrichen.
Im Bereich Lehre wurden die Gewichtungen zwar nicht verändert, aber die Berechnungsmethoden verändert und die Indikatoren leicht verändert (2010 wurde das Verhältnis der Zahl der Erstsemester / WissenschaftlerInnen herangezogen; seit 2011 das Verhältnis aller Studierender / WissenschaftlerInnen).
Die Begeisterung über so viel Neues sollte sich allerdings auch in Grenzen halten. Das populärste und am breitesten rezipierte ARWU-Ranking ist weitgehend veränderungsresistent (»There have been no changes in the core methodology …. since 2010« II, 27)
Die EUA ignoriert, dass es sich bei den Ranking-Providern in der Regel um kommerzielle Anbieter handelt, zu deren Geschäftsmodell die Behauptung gehört, ständig an der Verbesserung der eigenen Verfahren zu arbeiten und dabei die Wünsche der ›Kunden‹ zu integrieren. Zu diesem Geschäftsmodell gehört auch die selbstkritische Attitüde der Provider, die ständig vor einem Missbrauch von Rankings warnen bzw. eine vorsichtige Interpretation der einzelnen Indikatoren anmahnen.3 Die EUA hält dies allerdings für extrem bemerkenswert. (II, 19-21)
Die grundlegende Frage ist aber, ob sich durch die behaupteten Innovationen irgendetwas an der Struktur der internationalen akademischen Kräfteverhältnisse bzw. an der vertikalen Stratifikation von Spitzenpositionen verändert hat? Zumindest indirekt wird diese Frage auch von der EUA verneint. Die Spitzenpositionen teilen nach wie vor die einschlägig Verdächtigen unter sich auf, d.h. die (world-class) »Eliteuniversitäten« bei Dominanz des angelsächsischen Wissenschaftsraumes, also in etwa die Liga Harvard, Princeton, Oxford (II, 17) Nicht-englischsprachige wissenschaftliche Publikationen werden in der Bibliometrie weiterhin überwiegend ignoriert (II, 19), Geistes- und Sozialwissenschaften oder Buchpublikationen ebenso. (II, 18f)
Die europäische Zukunft: Berlin Principles und U-Multirank
Die Management-Eckpfeiler einer von der EUA offenbar angestrebten eigenständigen europäischen Rankingkultur werden in dem aktuellen Report benannt. Es handelt sich zunächst um die Berlin Principles on Ranking of Higher Education Institutions. (II, 82-86). Diese wurden 2006 von einer durch das UNESCO European Center for Higher Education und durch das Institute for Higher Education Policy Washington eingesetzten international Ranking Expert Group (IREG) in Berlin entwickelt. Es handelt sich um 16 Transparenz-Prinzipien, die möglichst perspektivisch allen Rankings zugrunde liegen sollten (Klarheit über Zweck und Zielgruppe der Erhebungen, Offenlegung der Quellen und der Methodik etc.)
Auf dieser Grundlage wurde von der EU die Entwicklung eines sog. U-Multiranks angeregt. Federführend dabei sind das deutsche CHE und das niederländische CHEPS (Center for Higher Education Policy Studies der Universität Twente). Weitere Mitglieder der Projektgruppe (u.a.): das CWTS (der Leiden Universität), Elsevier Publishers, die Bertelsmann Stiftung (zusätzlich zum von dieser finanziertem CHE). (II, 54). Zunächst wurde ein Pilotprojekt gestartet, an welchem sich die Fächer BWL, Maschinenbau und Elektrotechnik von 114 europäischen Hochschulen beteiligten. Aufgrund der so gesammelten Erfahrungen wurde im Januar 2013 mit finanzieller Unterstützung der Europäischen Kommission die Entwicklung eines standardisierbaren Rankings in Auftrag gegeben, dessen erste Ergebnisse frühestens 2014 erwartet werden. (II, 59)
Dem Anspruch nach handelt es sich laut eigener homepage (www.u-multirank.eu) um ein »new multi-dimensional user-driven approach to the international ranking of higher education institutions.« Damit soll sich das Projekt ausdrücklich von den international dominierenden Forschungsrankings unterscheiden. Indikatoren werden zu fünf verschiedenen Dimensionen erhoben: Studium und Lehre, Forschung, Wissenstransfer, internationale Orientierung und regionales Engagement. Datenquellen sind neben der Befragung von Hochschulen und Fachbereichen, Studierendenbefragungen, bibliometrische und Patentanalysen. Abgefragt werden allein zwölf verschiedene studentische »Zufriedenheitsindikatoren«. (II, 57)
Wem das Ganze aus den deutschen hochschulpolitischen Auseinandersetzungen bekannt vorkommt, kann sich direkt beim CHE darüber informieren, um was es sich beim U-Multirank handelt: »Das Konzept profitiert von den methodischen Vorarbeiten im CHE-Hochschulranking und orientiert sich in vielen Grundelementen eng an der CHE-Methodik.«
Das Verfahren und die Nutzerorientierung (»user-driven«) sind in der Tat weitgehend identisch: es werden keine Liga-Tabellen von Hochschulen und Fachbereichen erstellt, sondern die ermittelten Indikatoren in Rangfolgen aufbereitet, aus denen sich jeder/jede NutzerIn ihr eigenes Informationsschaschlik entsprechend der eigenen Interessen – wird Wert gelegt auf eine forschungsstarke Hochschule, gute Laborausstattungen, gute Betreuungs- und Beratungsstrukturen etc.? – zusammenstellen kann – so sieht eben Kundensouveränität in einem Marktmodell aus. Ziel ist eine Globalisierung – oder zunächst: Europäisierung – der CHE-Methodik, womit der bildungspolitische Einfluss des Bertelsmann-Politikberatungskomplexes noch einmal erheblich wachsen dürfte.
Zum Schluss: alle Fragen bleiben offen
Offenbar versucht die EUA die öffentliche Debatte um den (Un-)Sinn von Hochschulrankings umzulenken auf die Frage nach den bestmöglichen Rankings. Ob ihr dies gelingt, bleibt abzuwarten. Zum Geschäftsmodell aller Rankings gehört die Behauptung, diese würden eine win-win-Situation erzeugen. Die Hochschulen, ja, ganze Hochschulsysteme würden durch wettbewerbsgetriebenes benchmarking insgesamt ›besser‹, weil ja alle Wettbewerbsteilnehmer darauf erpicht sind, ihre Leistung zu steigern. Bewiesen werden konnte das bisher nicht. Höchstens das Gegenteil davon. Schon die naive alltagsbewusstseinsgeprägte Vorstellung eines Wettbewerbs mit gleichen Chancen führt in die Irre. Es ist eben nicht so, dass jedes Jahr die Karten neu gemischt und verteilt werden und alle Teilnehmer wieder bei Null beginnen. Rankings produzieren vor allem Hierarchien zwischen den Hochschulen und vertiefen die damit produzierten Abstände im Laufe der Zeit. Dafür steht exemplarisch die stabile vertikale Stratifikation von Spitzenuniversitäten in den einschlägigen internationalen Rankings. Wer einmal oben ist, bleibt dort auch – selbst wenn einmal zwei ›Eliteuniversitäten‹ die Plätze tauschen. Wer etwa in den USA top ist, kann die höchsten Studiengebühren kassieren und hat bessere Voraussetzungen weitere Sponsoren und Investoren anzuwerben. Der so akkumulierte Ressourcenreichtum verbessert dann wiederum die Chancen in der nächsten Bewertungsrunde.
Bisher konnte auch nicht bewiesen werden, dass sich an dieser Hierarchisierung etwa ändert, wenn ich den Katalog von Indikatoren wettbewerblicher Vergleiche – ob Liga-Tabellen oder Ranggruppen – erweitere. Dass dadurch die Hochschulen ›gleicher‹ auch im Sinne einer angemessenen verbesserten Ausstattung – zumal in einem strukturell unterfinanzierten System wie in Deutschland – würden, darf wohl ausgeschlossen werden. Der falsche Anreiz, den derartige Rankings gegenüber der Politik produzieren, besteht etwa darin, zuunterst platzierte Fachbereiche eher zu ignorieren oder abzuwerten, statt etwa deren Ausstattungsdefizite auszugleichen. Zusätzlich produzieren derartige Rankings das falsche Signal, dass Leistungssteigerung auch in einem unterfinanzierten System möglich ist: sonst würden sich ja schließlich vergleichbar (schlecht) ausgestattete Fachbereiche nicht in unterschiedlichen Ranggruppen wieder finden. Schließlich wird die Politik zusätzlich entlastet, wenn das was eigentlich selbstverständlich sein sollte – gute Betreuungsrelationen, angemessene Labor- und Bibliotheksaustattung etc. – zum Gegenstand von Fragebögen (»studentische Zufriedenheitsindikatoren«) und eines (Pseudo-)Wettbewerbes gemacht wird – statt politische Verantwortung für ein gleichwertiges gut ausgestattetes Hochschulsystem zu sein.
Man sollte Europa und seinen Hochschulen wünschen, dass beiden ein solches Wettbewerbsregime erspart bleibt.
Fußnoten
1 Beide Reports werden im laufenden Text zitiert: die 2011er-Veröffentlichung (I, Seitenzahl), die 2013er-Veröffentlichung entsprechend (II, Seitenzahl). Zum ersten Report gibt es bei Studis Online ebenfalls einen Artikel: https://www.studis-online.de/HoPo/art-1232-eua-ranking-report.php
2 Grundsätzlich zu dieser Problematik: Torsten Bultmann, 2012: Der internationale Siegeszug der Bibliometrie, in: Forum Wissenschaft 4-2012, S. 21-24; online verfügbar bei Studis Online: https://www.studis-online.de/HoPo/art-1489-bibliometrie-kein-ende.php
3 Vgl. dazu exemplarisch die ausgetüftelte Kommunikationsstrategie des Centrums für Hochschulentwicklung (CHE): Oliver Iost, 2012: CHE-Hochschulranking in der Kritik, in: Forum Wissenschaft 4-2012, S. 8-11; online verfügbar bei Studis Online: https://www.studis-online.de/HoPo/art-1486-che-ranking-kritik.php