HintergrundHochschulrankings – Rolle, Bedeutung und Alternativen
Von Oliver Iost
Im Folgenden sollen zunächst die im deutschsprachigen Raum bekanntesten Hochschulrankings und -ratings vorgestellt werden. Soweit bekannt, wird der Anlass der Entstehung erwähnt und kurze Hinweise zu den Institutionen gegeben, die das jeweilige Ranking verantworten. Anschließend wird ein Überblick über Kritikpunkte an verschiedenen Rankings gegeben, wobei Kritik und Informationen aus den USA, Großbritannien und schließlich Deutschland zusammentragen werden. Abgeschlossen wird der Beitrag mit einigen Überlegungen zu möglichen Alternativen – von denen es manches zumindest in Ansätzen schon gibt, anderes noch einer Realisierung harrt.
Der Artikel ist zuerst erschienen in:
„Die unternehmerische Hochschule: Zwischen Bildungsanspruch und Standortsicherung. Torsten Bultmann zum 60. Geburtstag“, Klemens Himpele, Steffen Käthner, Jana Schultheiss, Sonja Staack (Hg.), BdWi-Verlag, Reihe Hochschule, Band 9, 2014.
Weitere Informationen zu dem Sammelband und Bestellmöglichkeit auf den Seiten des BdWi-Verlags: www.bdwi.de
Times Higher Education World University Rankings („TIMES-Ranking“)
Das Times Higher Education World University Rankings gibt es seit 2004 (bis 2009 mit leicht anderem Namen und anderem Datenerheber). In der englischsprachigen Wikipedia1 wird als ein Auslöser für die Erstellung eines globalen Unirankings der Lambert Review of Business-University Collaboration2 erwähnt. In diesem im Auftrag des britischen Finanzministeriums erstellten Bericht wird explizit die Erstellung eines Rankings („league table“) empfohlen:
„A league table of the world’s best research-intensive universities would provide the Government with a way of assessing its research funding efforts. It would provide academics with a valuable reality check, and help vice-chancellors in their efforts to win the support of their colleagues and the Government for their strategic plans.“3
Die Datenerhebung führt seit 2010 der Medienkonzern Thomson Reuters durch, der seine Dienste auch Hochschulen anbietet.4
Academic Ranking of World Universities (ARWU, „Shanghai Ranking“)
Diese meist nur als „Shanghai Ranking“ bezeichnete jährliche Erhebung wurde erstmals im Juni 2003 veröffentlicht5. Zitationen und große wissenschaftliche Auszeichnungen (Nobelpreis, Fieldsmedaille) sind im Grunde die einzigen verwendeten Indikatoren. Erstellt wird das Ranking inzwischen von der Shanghai Ranking Consultancy, einer Ausgründung der Shanghai Jiao Tong University. Ursprüngliches Motiv war es, die Stellung der chinesischen Universitäten im globalen Vergleich zu ermitteln.
CHE-Hochschulranking
In Deutschland am bekanntesten dürfte das Hochschulranking des 1994 von Bertelsmann Stiftung und Hochschulrektorenkonferenz gegründeten Centrums für Hochschulentwicklung (CHE) sein. Dieses wird bereits seit 1998 publiziert, wobei jährlich ein Drittel der betrachteten Fächer neu erhoben werden. Seit 2005 wird das Ranking im jährlich im Mai erscheinenden ZEIT Studienführer veröffentlicht. Es soll nach eigenen Angaben vor allem Studieninteressierte und wechselwillige Studierende bei der Wahl ihrer Hochschule unterstützen.
U-Multirank
Vereinfacht gesprochen kann man sich U-Multirank als auf die ganze Welt ausgedehntes CHE-Hochschulranking vorstellen – zunächst finanziert von der Europäischen Union. Neben dem CHE ist das Center for Higher Education Policy Studies (CHEPS) der Universität Twente federführend. Als weiterer Partner ist u. a. auch die Bertelsmann Stiftung beteiligt. Eine erste Ausgabe mit über 500 beteiligten Hochschulen soll im Laufe des Jahres 2014 erscheinen. Vorangegangen war eine Machbarkeitsstudie (ebenfalls vor allem von CHE und CHEPS), die 2011 präsentiert wurde. Die Europäische Rektorenkonferenz, die 2011 und 2013 zwei „Rankingreports“ veröffentlichte, hat in den Reports zwar weitreichende Kritik an Rankings formuliert, kommt aber fast überraschend zum Schluss, dass ein „europäisches“ Ranking wiederum doch gut wäre.6
Forschungsrating des Wissenschaftsrates
Das Forschungsrating wurde als Pilotversion für einige Fächer erhoben, soll aber in den nächsten Jahren ausgeweitet werden.7 Es will explizit kein Ranking sein, sondern soll eher Stärken und Schwächen der einzelnen Fachbereiche in verschiedenen Teilaspekten der Forschungsaktivität aufzeigen. Es richtet sich vor allem an die Hochschulleitungen, WissenschaftlerInnen und die Politik.
DFG-Förderatlas
Alle drei Jahre veröffentlicht die Deutsche Forschungsgemeinschaft (DFG) ihren Förderatlas. Dabei werden nicht nur die Förderungen der DFG selbst erfasst, sondern alle Drittmittel, egal aus welcher Quelle. Sie werden im Förderatlas in Relation zu den Grundmitteln und weiteren Indikatoren gesetzt. Bis 2009 hieß das Ganze noch „Forschungsranking“, ab 2012 bewusst Förderatlas. Trotz dieser Vermeidung des Begriffs Ranking bleibt laut Bultmann8 festzuhalten:
„In der öffentlichen Kommunikation schließlich, die durch die DFG selbst angestoßen wird, steht ihr nicht weiter differenziertes Gesamtfördersummenranking im Zentrum.“
Exzellenzinitiative
Selbst die Exzellenzinitiative der Bundesregierung war im weitesten Sinne als Ranking aufzufassen – schließlich werden hier einige Universitäten hervorgehoben und direkt mit Geldern gefördert. Vor allem in der Öffentlichkeit wurde durch die von der Presse geprägte Bezeichnung „Eliteuniversität“ für die Gewinnerinnen der ersten Förderlinie der Eindruck geweckt, diese Hochschulen würden sich in besonderer Weise von „den anderen“ unterscheiden. Im Weiteren wird jedoch nicht auf die Exzellenzinitiative eingegangen.
Der Einfluss von Rankings
Die längste Tradition dürften Unirankings in den USA haben. Und so haben die Universitäten dort auch die längste Erfahrung darin, welche kreativen Strategien im Umgang mit Rankings möglich sind.
Auf US-Ebene besonders bekannt sind die Rankings von U.S. News.9 Dabei gibt es verschiedene Rankings für verschiedene Hochschul- und Abschlusstypen (College, Graduate School etc.). Im Graduate-Bereich sind die Rankings nach Fachbereichen aufgetrennt.
Die Maxwell School of Public Policy der Syracuse University war (und ist) im Graduate Ranking des entsprechenden Fachbereichs auf dem Spitzenplatz. Ein ehemaliger Dekan äußert10, dass diese Tatsache beim Fundraising jedes Jahr „Millionen von Dollar“ wert sei und hunderte von exzellenten BewerberInnen einbringe. Er kritisiert in diesem Zusammenhang die Einstellung der früheren Kanzlerin der Universität, die diese Rankings offenbar ignorierte. Zu behaupten, sie bedeuteten nichts, sei Unsinn. Sie bedeuteten viele, viele Dollars – er wünschte, es wäre nicht so.
Die frühere Kanzlerin hatte offenbar großen Wert darauf gelegt, die Studierendenschaft in Bezug auf soziale und kulturelle Herkunft stärker zu diversifizieren. So waren vor einem Jahrzehnt weniger als ein Fünftel der Studierenden aus Minderheiten und ebenso weniger als ein Fünftel aus finanzschwachen Verhältnissen, inzwischen sind ungefähr ein Drittel Minderheiten und ein Viertel aus finanzschwachen Verhältnissen. Um dies zu erreichen wurden bewusst auch BewerberInnen mit schlechteren Schulnoten aufgenommen – was in den Rankings aber negative Auswirkung hatte.
Ein Effekt von Rankings: Hochschulen wollen mit allen Mitteln die ersten Plätze erreichen
Positive Auswirkungen kann man auch durch Manipulation erhalten:
„A few colleges and universities have opted out of the U.S. News rankings system. But most will strive to get ahead in a tough economic time in a very competitive industry. Unfortunately colleges and universities will be spending their time and money on ranking gamesmanship instead of trying to improve education and research. Gaming the rankings system is here to stay.“11
Interessante Einblicke in die Welt der Rankings aus Sicht Großbritanniens gaben einige Beiträge auf der Worldviews 2013 Konferenz.12
So gebe es Universitäten, die besonders darauf achteten, bei Befragungen auf sich aufmerksam zu machen. Shaun Curtis von der University of Exeter habe von einem Kollegen einer Partneruniversität einen Hinweis auf eine Ranking-Umfrage erhalten – zusammen mit einer Auflistung der Leistungen der Universität und einem praktischen Link direkt zur Umfrage.
Er sei erstaunt gewesen, als er eine Stellenanzeige einer australischen Universität gesehen habe, die Rankingmanager mit unglaublich hohen Gehältern einstellen wollte. Offenbar sei es so, dass eine Universität mit einem hervorragenden Datenspezialisten ihr Ranking steigern könnte.
Curtis führt weiter aus, dass 5.000 der 18.000 Studierenden der University of Exeter von außerhalb Großbritanniens stammen und daher Rankings eine wichtige Rolle für die Strategie der Universität spielten. Auch wenn Rankings Mängel hätten, sei das keine Entschuldigung für schlechte Ergebnisse.
Schließlich äußerte er, er sei besorgt darüber, dass Rankings Einfluss auf die Politik nehmen und sich Regierungen in Sachen Finanzierung anscheinend auf Rankinggewinner konzentrieren wollten.
Phil Baty von Times Higher Education (und somit auch verantwortlich für das TIMES Ranking) bestätigt letztere Befürchtung – wenn auch ›nur‹ für einige BRICS-Staaten. So würde Brasilien 100.000 Studierende zum Auslandsstudium nur an gerankte Institute schicken.
Multi-dimensionale Rankings als Verbesserung?
Eine offensichtliche Schwäche aller Rankings, die Hochschulen als Ganzes ranken, ist die Tatsache, dass darüber eigentlich kaum eine Aussage bezüglich eines einzelnen Fachbereichs an der jeweiligen Hochschule gemacht werden kann. Dass an jeder Hochschule alle Fachbereiche jeweils gleich ›gut‹ (oder ›schlecht‹) sind, wird von niemandem angenommen.
Sowohl das TIMES- als auch das Shanghai-Ranking haben ihre ›klassischen‹ Rankings wegen dieser offensichtlichen Schwäche inzwischen um fachbereichs-bezogene Rankings ergänzt. Wobei diese lediglich als zusätzliche Auswertungen präsentiert werden – im Mittelpunkt bleibt dennoch das klassische Ranking.
Vor allem das CHE wird nicht müde, sein eigenes multi-dimensionales Ranking als Lösung aller Probleme anzupreisen – und scheint sein Konzept mit U-Multirank dank EU-Förderung tatsächlich auf eine globale Ebene heben zu können. Die im Weiteren vor allem am CHE-Hochschulranking geäußerte Kritik trifft aber genau so auch auf U-Multirank zu.
Mit einem Vortrag13 bei einer Tagung des Wissenschaftsrates hat sich der Präsident der Universität Hamburg, Dieter Lenzen, 2012 in die Reihe der Rankingkritiker eingefügt. Und das, obwohl er 2008 von CHE und Financial Times Deutschland zum Hochschulmanager des Jahres gekürt wurde14 und damit den meisten Ideen des CHE zumindest damals sicher nicht ablehnend gegenüberstand.
Nachdem er auf historische (und zum Teil überholte) Gründe für Rankings eingeht, stellt Lenzen fest:
„Das Grundmotiv, das allen Vergleichen zu Grunde liegt, ist aber letztlich ein ökonomisches. Menschen möchten sich Vorteile verschaffen durch Vergleiche und als die jeweils besseren allererst dastehen.“
Er führt dann aus, dass Rankings heute u. a. den Anspruch hätten, für (potentielle) Studierende Transparenz zu schaffen.
„Das gilt natürlich auch für Internationale Rankings, bei denen diffus angenommen wird, dass beispielsweise im Falle des Shanghai-Rankings der Aufenthalt eines längst verblichenen Nobelpreisträgers von 1910 eine Art Genius Loci hervorgerufen hat, der die Studienbedingungen nachhaltig prägt und deshalb hohe Studiengebühren rechtfertigt.
In Wirklichkeit gilt für all diese Leistungsvergleiche aus privatwirtschaftlichen, zumindest in den USA, Händen: Es ist ein großes Geschäft. Das ist nicht zu beanstanden, hat aber Folgen für die Qualität, etwa wenn ein Großteil der erhobenen Daten überhaupt nicht veröffentlicht wird und so eine hohe Informationsselektivität existiert. Insoweit die Kunden solcher Rankings als Erwachsene für ihre Entscheidungen selbst verantwortlich sind, muss man das nicht kritisieren; umgekehrt muss aber ebenso klar sein, dass die öffentliche Hand sich auf keinen Fall an Daten orientieren kann, die nicht selbst durch öffentliche Einrichtungen beurkundet sind.“ [S. 3]
Lenzen geht dann auf einige grundsätzliche methodische Probleme von Rankings ein und zeigt, dass Rankings weder objektiv, reliabel oder valide sind [S. 4]. Er führt aus, dass Hochschulleitungen viele Tricks kennten, um Daten zu fälschen und zu beschönigen. Würden Urteile von HochschullehrerInnen eingeholt (hier kann man ergänzen: was ebenso auch für Urteile von Studierenden gilt), so entstünde methodisch sogar ein gezieltes Nichtobjektivitätsmaß. Einstellungen und Vorurteile würden zu Messkriterien gemacht, was sozialwissenschaftlich gesehen eigentlich nur in der Einstellungs- und Vorurteilsforschung selbst sinnvoll sei.
Bruno S. Frey und Margit Osterloh haben in diversen Publikationen15 auf einige unbeabsichtigte negative Effekte selbst von erhebungstechnisch als ideal angenommenen Rankings hingewiesen, auf die sich Lenzen dann ebenfalls bezieht. Frey und Osterloh nennen drei (negative) Folgen auf Ebene des einzelnen Forschenden: 1. Die intrinsische Motivation der Forschenden wird durch die Einschränkung der Autonomie (Ergebnisse müssen „publikations-geeignet sein“) reduziert. 2. Zielverschiebungen bewirken, dass leicht messbare Ziele erfüllt, schwer messbare, aber häufig wichtigere Ziele hingegen vernachlässigt werden. 3. Gegenstrategien verändern das Forschungsverhalten unmittelbar. Dazu gehört beispielsweise die Auswahl von Forschungsthemen danach, ob leicht erreichbare Daten vorliegen.
Besonders schwerwiegend seien „Lock-in“-Effekte, die zu einer sich selbst erfüllenden Prophezeiung führten. Diesen Effekten könnten sich einzelne Personen oder Institutionen kaum entziehen, auch wenn sie deren Schädlichkeit erkennen. So beugen sich WissenschaftlerInnen dem Druck des „publish or perish“ („veröffentliche oder gehe unter“), obwohl Untersuchungen zeigten, dass nur 50 Prozent der in referierten Zeitschriften veröffentlichten Beiträge von anderen Personen als den AutorInnen und den GutachterInnen gelesen und 90 Prozent der Artikel niemals zitiert würden. Fakultäten würden neue Mitglieder in erster Linie nach ihrem Publikationsranking berufen, um ihre „Leuchtturm-Position“ zu stärken. An die Stelle inhaltlicher Argumentation trete so Pseudo-Objektivität aufgrund von quantitativen Indikatoren, welche ohne interdisziplinäre Diskussion auskomme.
Lenzen machte in seinem Vortrag für den Wissenschaftsrat nach der methodischen Kritik an Rankings einen interessanten Schwenk. Jenseits der Qualität von Rankings (die er ja im Grunde negativ beantwortet hat) müsse viel mehr nach der „sozialen Wahrheit“ gefragt werden, nämlich danach, „ob der Leistungsvergleich den dahinterliegenden Wettbewerb mit Gewinnern und Verlierern dadurch rechtfertigt, dass Leistungen so gesteigert werden, dass auch die Verlierer davon profitieren.“ Dafür gebe es keine empirischen Evidenzen, im Gegenteil werde in der psychologischen Kleingruppenforschung davon ausgegangen, dass Kooperation leistungsfördernder als Wettbewerb sei.
Lenzen geht davon aus, dass Leistungsvergleiche die Allgemeinheit nicht schnell und zuverlässig in den Genuss guter Problemlösungen brächten, da diese gerade nicht von einer kleinsten Zahl besserer WissenschaftlerInnen abhängen, sondern vom Wissenschaftssystem insgesamt. Rankings führten dazu, dass die Mehrheit der WissenschaftlerInnen zu Verlierern gemacht werde (oder sich als solche fühle). Das sei aber in der Summe nicht leistungssteigernd, sondern führe (neben den schon von Frey / Osterloh genannten Effekten) zu Missgunst, Misstrauen, Frustration und anderen Formen der Aggression. Lenzen kommt zum Schluss, dass es nicht die Aufgabe sei, Leistungsvergleiche methodisch zu verbessern, sondern man müsse zur Kenntnis nehmen, dass sie dysfunktional seien.
Folgerichtig hat Lenzen durchgesetzt, dass die Universität Hamburg von sich aus nicht mehr an Rankings teilnimmt und etwaige nötige Datenerhebungen dafür nicht unterstützt. Ausgenommen hat Lenzen ausdrücklich staatliche Datenerhebungen und auch mögliche Ratings des Wissenschaftsrates nicht ausgeschlossen.
Dass dann in der Öffentlichkeitsarbeit der Universität16 das Ergebnis des Forschungsratings doch „rankend“ verwendet wird („gehört die Englische Sprachwissenschaft zu den Top 10 % deutschlandweit“), zeigt allerdings, dass auch Lenzen nicht verhindert, seiner Universität mittels Publikation von Ratingergebnissen Vorteile verschaffen zu wollen.
Michael Hartmann, der als Professor der Soziologie an der TU Darmstadt mit seinem Institut am ersten Forschungsrating des Wissenschaftsrates teilgenommen hat, kann die Begeisterung für das Rating nicht teilen.17 Zwar attestiert er dem Rating, es sei „methodisch besser, als alle anderen. Nichtsdestotrotz treibt es wie alle anderen auch die Hierarchisierung innerhalb der deutschen Hochschullandschaft [...] weiter voran.“
Ein Problem aller Rankings und Ratings spricht Hartmann ebenfalls an:
„Was [...] am Mainstream und am Zeitgeist vorbeigeht, fällt durch oder wird mit Missachtung gestraft. [...] Wir erleben hier eine Engführung von Wissenschaft, die in allen Bereichen zu beobachten ist und durch Rankings, egal welcher Art und Güte, forciert wird.“
Das Rating soll u. a. den Hochschulleitungen Orientierung bieten – und auch darin liegen Gefahren, meint Hartmann:
„Schneidet [...] die Chemie im Rating besser als die Soziologie ab, kann das in der Tendenz dazu führen, dass die Chemie zum Nachteil der Soziologie weiter gepäppelt wird, oder manchmal auch umgekehrt. [...] [A]uch die Kultusminister, die Wissenschaftsstiftungen und die Wirtschaft [werden] ihre Gelder auf die konzentrieren, die beim Forschungsrating oben mitmischen. Im Verteilungskampf um die knappen Mittel und unter den Vorzeichen der sogenannten Profilbildung wird sich die Spaltung in Gewinner und Verlierer sowohl hochschulintern als auch hochschulübergreifend weiter zuspitzen. Und der Wissenschaftsrat ist fraglos angetreten, diese Tendenzen zu forcieren, auch wenn er das so offen nicht zugibt.“
Wahrnehmung und Kritik des CHE-Hochschulrankings
In Deutschland setzt sich die meiste Kritik an Rankings mehr oder weniger direkt mit dem CHE-Hochschulranking auseinander. Das CHE ist ein im Hochschulbereich äußerst einflussreicher Akteur und hat durch die Zusammenarbeit mit der ZEIT den wahrscheinlich publizistisch günstigsten Partner für das Anliegen gefunden, das Ranking für die Studienwahl zu platzieren.
Das Hochschul-Informations-System (HIS) ermittelt in seiner regelmäßigen Befragung der StudienanfängerInnen (zuletzt 2011/12)18 auch die Motive der Hochschulwahl. An der Spitze der Antworten liegt mit 88 % „Studienangebot entspricht fachlichen Interessen“, an zweiter Stelle mit 65 % (acht Jahre zuvor übrigens nur 56 %) der „gute Ruf der Hochschule“ (was auch immer damit jeweils assoziiert wird, hierunter können durchaus auch Rankings fallen, vor allem die globalen suggerieren ja hauptsächlich die Messung des „Rufs“). Motive mit über oder nahezu 50 % sind dann noch „gute Ausstattung“ (61 %), „überschaubare Verhältnisse“ (50 %) und „vielfältiges Lehrangebot“ (48 %). Die Bedeutung von Rankings ist noch geringer, steigt aber: Von 30 % 2003/04 auf 37 % 2011/12. Männer und zukünftige Universitätsstudierende legen dabei etwas mehr Wert auf Rankings als Frauen und FH-Studierende.
Den Trend, mehr auf Rankings zu achten, könnten allerdings die vor allem ab 2012 in größerem Umfang verbreiteten Boykottaufrufe stoppen. Gemeinsam ist die Kritik, dass Rankings Studieninteressierte in die Irre führen würden. „Das CHE-Ranking suggeriert, sich hierbei ohne Weiteres den massenmedialen Präsentationserfordernissen beugend, eindeutige und verlässliche Urteile, die durch die verfügbaren Daten keineswegs gedeckt sind – und wo ganz offenkundig systematische Differenzierungen und dichte Beschreibungen angebracht und angemessen wären“ schreibt dazu die Deutsche Gesellschaft für Soziologie (DGS).19
Unabhängig von dieser Debatte hat das CHE 2013 eine Masterarbeit als CHE Arbeitspapier veröffentlicht20. Darin wird die Nutzung von Rankingdaten an deutschen Hochschulen untersucht – mit Schwerpunkt auf dem CHE-Hochschulranking.
Unter den Teilnehmern an der Umfrage gaben nur 53 % der Universitäten, dafür aber 82 % der Fachhochschulen an, das Ranking in mindestens einer Organisationseinheit (zur Wahl standen: Hochschulleitung, Öffentlichkeitsarbeit, Hochschulmarketing, Hochschulcontrolling, Qualitätsmanagement, Zentrale Studienberatung, Fachbereiche) zu verwenden. 28 % der Universitäten und 18 % der Fachhochschulen gaben dagegen an, das Ranking generell nicht zu nutzen.
Unter denen, die das Ranking verwenden, wurde die Nutzung in der Öffentlichkeitsarbeit am meisten genannt (58 %), gefolgt von Hochschulleitung (51 %), Fachbereiche (49 %), Hochschulmarketing (44 %) und Qualitätsmanagement (42 %). Deutlich weniger wurde das Ranking durch die Studienberatung (21 %) oder das Hochschulcontrolling (19 %) verwendet.
Eindeutig die häufigste Nutzung ist die, das Ranking in Pressemitteilungen zu verwenden (82 % der Nutzungen in der Öffentlichkeitsarbeit) oder auf der Webseite (60 %). Die Hochschulleitungen gaben zu 68 % an, die Daten für die Stärken- und Schwächenanalyse zu verwenden, zu 66 % als Gesprächsgrundlage zwischen Hochschulleitung und Fachbereich, zu 61 % zum Erkennen von Verbesserungspotenzialen und zu 50 % für die Wettbewerbsanalyse.
Wirklich Einfluss auf Entscheidungsprozesse innerhalb der Hochschulen nimmt das Ranking auf direkte Weise kaum. Bei allerdings auch nur 41 Antworten in der Masterarbeit gaben 71 % an, ihnen sei kein Einfluss bekannt, weitere 12 % gaben an, dass die Daten zwar herangezogen seien, ohne aber maßgeblich auf die Entscheidung Einfluss gehabt zu haben und lediglich 17 % konnten sich an Entscheidungen erinnern, die durch die Rankingdaten maßgeblich beeinflusst wurden.
Die starke Nutzung in der Öffentlichkeitsarbeit unterstreicht, dass bei der Studienwahl durch das CHE-Ranking Einfluss genommen wird. Hochschulintern sind die Wirkungen bisher eher subtil.
Alternativen
Wie schon dargestellt, gibt es unterschiedliche Zielgruppen für Hochschulrankings, insbesondere Studieninteressierte, WissenschaftlerInnen, die Politik und die Hochschulen selbst. Alternativen müssen je nach Zielgruppe und Zweck unterschiedlich gestaltet sein, wie es ja auch unterschiedliche Rankings gibt, die sich jeweils vor allem an bestimmte Zielgruppen richten.
Die DGS, die mit ihrem Aufruf zum Ausstieg aus dem CHE-Ranking 2012 die Kritik an Rankings in Deutschland nochmals stark befeuert und vor allem für viel öffentliche Aufmerksamkeit gesorgt hat, will im Sommer 2014 unter studium.org ein Online-Angebot für Studieninteressierte starten.
Dort sollen alle Soziologie-Fachbereiche – aber auch andere Fachbereiche, die an einer solchen Darstellung interessiert sind, bspw. die ebenfalls ranking-kritischen Geschichtswissenschaften – die Möglichkeit haben, ihr Angebot mit Texten und Bildern zu präsentieren und vor allem die jeweiligen Spezifika des Angebots der jeweiligen Hochschule herauszuarbeiten. Dazu sollen auch diverse Grunddaten präsentiert werden. Jedwede Rangfolgen sollen vermieden werden, es werden lediglich Auflistungen aller Studienangebote angeboten und Gruppierungen nach gewissen Kriterien, dazu eine Suchmaschine, die es möglich macht, nach konkreten Studienorten, Hochschulen, Schwerpunkten oder im gesamten Text nach Begriffen zu suchen.
Die Hochschulen, aber auch die Politik brauchen Hinweise darauf, wie sich die einzelnen Fachbereiche entwickeln, wo es Verbesserungsbedarf gibt. Leider besteht dabei immer auch die Gefahr, dass den – nach welchen Kriterien auch immer – erfolgreichen immer mehr gegeben wird und bei den anderen eher noch gestrichen wird. Dabei braucht manchmal gerade der „schlechtere“ Fachbereich Unterstützung. Das ist allerdings ein prinzipielles Problem, dass klassische Rankings in besonderer Weise verstärken, aber auch andere Darstellungen nicht gänzlich unterbinden können.
Lenzen hatte in seinem erwähnten Vortrag Auditierungen und Ratings als Alternative zu Rankings vorgeschlagen. Dabei geht er davon aus, dass deren Ergebnisse „ausschließlich Entscheidungsträgern, also insbesondere den jeweiligen Hochschulleitungen für Steuerungszwecke zur Verfügung [stehen], so dass der Leistungsstand dieser Hochschulen mit dem anonymisierten durchschnittlichen Leistungsstand der anderen Hochschulen vergleichbar wird und eine Einordnung der eigenen Hochschule im Leistungsspektrum möglich ist.“21 Diese Forderung soll offenbar verhindern, dass von Dritten mit dem erhobenen Zahlenmaterial doch Rankings möglich werden, würde aber bedeuten, dass die Zahlen geheim gehalten werden müssten. Das erscheint heute kaum mehr möglich – auch daher scheint eine umfassend (auch von den jeweils vorkommenden Hochschulen selbst) kommentierte Veröffentlichung sinnvoller. Statt die Daten geheim zu halten, wäre es sinnvoller, die Verwendung der Daten durch Dritte davon abhängig zu machen, dass diese verpflichtet würden, auf den „Kommentar“ zu verweisen.
Ergänzend sollten aber durchaus auch gelegentlich interne Evaluationen stattfinden, deren Daten tatsächlich nicht für die Veröffentlichung bestimmt sind, die aber auch nicht im Rahmen abgestimmter bundesweiter Erhebungen gewonnen werden und somit von vornherein nicht zum Vergleich dienen. Offen bleibt hierbei allerdings, wie gewährleistet werden kann, dass mögliche negative Ergebnisse zu wirklich sinnvollen Maßnahmen führen und nicht etwa die Ergebnisse unter den Tisch gekehrt werden.
Gelungene Lehr- und Forschungsmodelle, die auch auf andere Hochschulen übertragbar erscheinen, sollten in geeigneter Weise bekannt gemacht werden und die Umsetzung an anderen Hochschulen gefördert werden. Es muss in jedem Fall einen Transfer von den ›guten‹ zu den möglicherweise weniger guten geben. Die Politik muss dafür Fördermittel bereitstellen, um eben nicht nur das ›schon Gute‹ zu fördern, sondern auch dafür zu sorgen, dass sich gute Ideen schneller verbreiten und sich die Lehre und Forschung allgemein verbessern.
Für so manche Analyse werden bisher sogar noch zu wenige Daten erhoben oder es fehlen nötige Zusammenhänge. So wird zwar die soziale Herkunft der Studierenden untersucht, aber bspw. wird dieser Indikator bei Statistiken zur Häufigkeit von Studienabbrüchen einzelner Fächer nicht abgefragt.22 Ebenso wäre es erhellend zu wissen, an welchen Hochschulen Studierende bestimmter Studiengänge aus bildungsfernen Haushalten geringere Abbruchsquoten haben und ob an diesen Hochschulen allgemein die Abbruchsquoten geringer sind. Zwar hat man damit noch nicht die Ursachen herausgefunden, aber hätte Ansatzpunkte, wo es sich lohnen würde, genauer hinzuschauen. Wie insgesamt die Zahlen alle der Interpretation und (politischen) Debatte bedürfen und das Gefährliche an Rankings die Eigendynamik der vermeintlich so objektiven Zahlen ist.
Zum Schluss
Es bleibt festzuhalten: Qualität von Lehre und Forschung lässt sich nur begrenzt in Zahlen und noch weniger in Rankings pressen. Ohne die Einbettung in einen möglichst umfassenden Kontext können einzelne Kriterien leicht in die Irre führen. Eine umfassende Beschreibung der Hintergründe erfordert daher einfach mehr Platz – und mehr Mühe bei denjenigen, die sich diese Darstellung dann anschauen. Insofern ist jede echte Alternative zu einem Ranking weniger bequem, denn gerade die einfach verständliche Reihung (eben das „Ranken“) verbietet sich. Insbesondere wenn die Zielgruppe Studieninteressierte oder die allgemeine Öffentlichkeit angesprochen wird, sollte versucht werden, Zusammenhänge und Gruppierungen durchaus auch visuell darzustellen.
Auch wenn vorerst noch gilt „Rankings are here to stay“, so besteht auf Dauer durchaus die Chance, sie mehr und mehr zumindest in ihrer Bedeutung abzuschwächen und durch qualitative, umfassende und Details erläuternde Darstellungen zu ersetzen.
Fußnoten
1 http://en.wikipedia.org/wiki/QS_World_University_Rankings (abgerufen am 18.03.2014).
2 Lambert Review of Business-University Collaboration, December 2003, HM Treasury; Download möglich unter http://www.eua.be/eua/jsp/en/upload/lambert_review_final_450.1151581102387.pdf (abgerufen am 18.03.2014).
3 Ebd.: 92.
4 vgl. bspw. Pressemeldung: „Thomson Reuters Collaborates with Technische Universität (TU) Dresden to Quantify Global Research Impact“ http://thomsonreuters.com/press-releases/102013/technische-universitat-dresden (abgerufen am 24.03.2014).
5 http://www.shanghairanking.com/aboutarwu.html (abgerufen am 18.03.2014).
6 vgl. Bultmann, Torsten: „Viel Altes und wenig Neues – Zweiter Hochschulranking-Report der europäischen Rektorenkonferenz“ (30.04.2013), online unter https://www.studis-online.de/hochschulpolitik/art-1536-eua-ranking-report-2013.php (abgerufen am 18.03.2014); auch in: Forum Wissenschaft 3/2013.
7 Zum Forschungsrating allgemein (10/2013) http://www.wissenschaftsrat.de/arbeitsbereiche-arbeitsprogramm/forschungsrating.html (abgerufen am 24.03.2014).
8 Bultmann, Torsten: „Noch mehr Drittmittel, noch mehr ›Wettbewerb‹ und noch mehr Ungleichheit! – Förderranking 2012 der DFG“ (19.06.2012), online unter https://www.studis-online.de/hochschulpolitik/art-1424-foerderranking-dfg-2012.php (abgerufen am 18.03.2014); gekürzt auch in: Forum Wissenschaft 3/2012.
9 http://www.usnews.com/rankings.
10 Das und folgende Absätze übersetzt und zusammengefasst aus: „About-Face on Rankings“ http://www.insidehighered.com/news/2014/01/06/syracuse-after-refusing-play-rankings-game-may-care-again (abgerufen am 21.03.2014).
11 Burton A. Weisbrod and Evelyn D. Asch: „Gaming the Rankings“ http://www.insidehighered.com/views/2009/06/09/asch (abgerufen am 21.03.2014), dort auch Links zu weiteren Artikeln zum Thema und Details, wie „manipuliert“ wird.
12 Die folgenden Abschnitte referieren aus „Concerns growing over ›gaming‹ in university rankings“. Dieser Artikel berichtet von Vorträgen auf der Worldviews 2013 Konferenz http://www.universityworldnews.com/article.php?story=2013062216300718 (abgerufen am 21.03.2014).
13 Lenzen, Dieter: „Ranking, Rating – Steuerung und Motivation. Erfahrungen und Befunde zum Forschungsrating aus Sicht einer Universitätsleitung. Vortrag gehalten am 21.9.2012 bei der ›Tagung zur Bedeutung des Forschungsratings als Instrument der strategischen Steuerung und Kommunikation von Hochschulen und Forschungseinrichtungen‹ veranstaltet vom Wissenschaftsrat und dem Stifterverband für die Deutsche Wissenschaft“, http://www.wissenschaftsrat.de/download/Vortrag_Lenzen.pdf (abgerufen am 20.03.2014). Die folgenden Seitenangaben in eckigen Klammern beziehen sich alle hierauf.
14 „Präsident der Freien Universität, Professor Dr. Dieter Lenzen, zum ›Hochschulmanager des Jahres‹ gekürt“ (Pressemitteilung 366/2008 vom 14.11.2008, FU Berlin) http://www.fu-berlin.de/presse/informationen/fup/2008/fup_08_366/index.html (abgerufen am 21.03.2014).
15 Lenzen verweist auf einen Vortrag, dessen Skript leider nicht zugänglich ist. Eine gute Zusammenfassung dürfte aber der von Osterloh und Frey verfasste Artikel unter http://www.oekonomenstimme.org/artikel/2012/02/rankings-unbeabsichtigte-nebenwirkungen-und-alternativen/ sein (abgerufen am 25.03.2014).
16 „Die Universität Hamburg erreicht sehr gutes Ergebnis im Forschungsrating Anglistik und Amerikanistik des Wissenschaftsrates“ (Pressemitteilung der Uni Hamburg vom 07.12.2012) http://www.uni-hamburg.de/presse/pressemitteilungen/2012/pm99.html (abgerufen am 21.03.2014).
17 Interview mit Michael Hartmann: „Forschungsrating des Wissenschaftsrates – Hochschulspaltung von Staats wegen“, online unter https://www.studis-online.de/hochschulpolitik/art-1582-forschungsrating-ausweiten.php (abgerufen 21.03.2014); auch in: Forum Wissenschaft 1/2014.
18 Scheller, Percy / Sören Isleib / Dieter Sommer: „Studienanfängerinnen und Studienanfänger im Wintersemester 2011/12“, in:HIS:Forum Hochschule 6/2013 http://www.his.de/pdf/pub_fh/fh-201306.pdf (abgerufen am 25.03.2014).
19 Eine ausführliche Liste aller Ranking-Verweigerer und Links zu den Quellen (insbesondere auch zum Statement der DGS) sowie weitere Details zum CHE-Hochschulranking in der 2013er Fassung findet sich in https://www.studis-online.de/Studieren/art-1539-zeit-che-uniranking-2013.php. Inzwischen (daher nur in der Onlinefassung dieses Artikels ergänzt) gibt es einen entsprechenden Artikel auch für die 2014er Fassung: https://www.studis-online.de/Studieren/art-1639-zeit-che-uniranking-2014.php
20 Friedrich, Julius-David: Nutzung von Rankingdaten an deutschen Hochschulen; CHE Arbeitspapier Nr. 166 Juni 2013 (war als Masterarbeit an der TU Kaiserslautern entstanden), http://www.che-ranking.de/downloads/CHE_AP166_Nutzung_von_Rankingdaten_an_deutschen_Hochschulen.pdf (abgerufen am 18.03.2014).
21 Lenzen, Dieter: Vortrag 21.9.2012, S.10.
22 Heublein, Ulrich / Johanna Richter / Robert Schmelzer / Dieter Sommer: „Die Entwicklung der Schwund- und Studienabbruchquoten an den deutschen Hochschulen“, in: HIS: Forum Hochschule 3/2012 http://www.his.de/pdf/pub_fh/fh-201203.pdf.