Das „QS World University Ranking“ – Es geht nicht um Wissenschaft sondern ums Geschäft
Dieser Tage ist wieder einmal das jährliche „QS World University Ranking“ veröffentlicht worden. Das QS Ranking wird in einschlägigen Kreisen, also an den Hochschulen, in der Politik und bei den Arbeitgebern, wie üblich, Furore machen. Man muss allerdings wissen, dass dieses Ranking aus rein kommerziellen Motiven erstellt wird.
Der Unsinn des QS Rankings beginnt schon damit, dass Gesamturteile über Hochschulen gefällt werden und nicht nach Stärken und Schwächen differenziert wird, die jede Hochschule hat. Die Reihung der Hochschulen erfolgt nach kaum durchschaubaren und höchst zweifelhaften Kriterien. Es ist nach wissenschaftlichen Standards eher peinlich, wenn sich Hochschulen ihrer Platzierung in solchen Rankings rühmen. Und es ist gefährlich, wenn Studierende ihre Auswahlentscheidung für eine Hochschule an solchen Rankings orientieren, weil zumindest das QS Ranking ziemlich wenig darüber aussagt, wie die Lehr- und Studienqualität an den „gerankten“ Hochschulen in den einzelnen Fächern ist. Noch schlimmer ist allerdings, wenn Hochschulleitungen und Hochschulpolitiker ihre Entscheidungen danach ausrichten, wie sie ihre jeweiligen Hochschulen auf solchen Rankinglisten nach oben bringen könnten. Von Wolfgang Lieb.
Das „QS Ranking“ gehört – zusammen mit dem „Times Higher Education’s World University Ranking“ und dem „Shanghai Ranking Consultancy’s Academic Ranking of World Universities“ (ARWU) – zu den international am meisten Aufsehen erregenden Ranking. Es wird auch in diesem Jahr in einschlägigen Kreisen, also an den Hochschulen, in der Politik und bei den Arbeitgebern wie jedes Jahr seit 2009 Furore machen.
Die gut „gerankten“ Hochschulen werden sich auf die Schulter klopfen. Die Hochschulpolitiker werden sich über weitere „Exzellenzinitiativen“ Gedanken machen und sich fragen, was man tun könnte, um die Kriterien, an denen gemessen wird, besser erfüllen zu können. Die karriereorientierten und diejenigen unter den Studierenden, die es sich vom Zeugnis und vor allem vom Geldbeutel her leisten können, werden sich danach ihre Kaderschmieden aussuchen. Und die Personalchefs der großen Unternehmen sowie die Berufungskommissionen an den Hochschulen weltweit, werden die Bewerbungen von Absolventen aus hoch „gerankten“ Hochschulen unbesehen in die engere Auswahl nehmen. Oder die „high calibre prospective students“ und die „Headhunter“ von und für Unternehmen und für Hochschulen werden sich auf entsprechenden (Karriere-)Messen oder Recruit-Centers direkt an „QS Advance“ oder an „QS QUACQUARELLISYMONDS LIMITED“ wenden, um Studienplätze oder „high potentials“ für ihre Firmen zu ergattern.
Dieses Vermittlungsgeschäft ist nämlich der eigentliche Grund für die Veranstaltung des „QS World University Rankings“. Das Motiv für das Ranking ist das „Business“ von Nunzio Quacquarelli, der 1990 noch als Student „Quacquarelli Symonds“ (QS) als eine „TopMBA Career Guide and TopMBA International MBA Recruitment and Salary Research“-Firma gegründet hat. Quacquarelli hat die Idee von AIESEC (Association Internationale des Etudiants en Sciences Economiques et Commerciales) aufgegriffen, einer ursprünglich von Studierenden gegründeten Organisation zur Förderung der Völkerverständigung durch den Austausch von Studierenden, die später zur von Unternehmen gesponsert Plattform zur Vermittlung von Führungskräften mutierte.
Quacquarelli hat die Idee von AIESEC kommerzialisiert und inzwischen vom Standort London ein Karrierenetzwerk mit 200 Mitarbeitern und Büros in Portland, Paris, Singapur, Stuttgart und Alicante aufgebaut. QS versteht sich als weltweitführendes Unternehmen zur Vermittlung von Studienkarrieren und akademischer Personalrekrutierung.
„QS events offer direct access to high calibre prospective students across five continents and over 200 cities annually. No other provider has the international expertise and connectivity with market that QS can offer. We organize education fairs; linking undergraduate, graduate and MBA candidates with some of the world’s best universities and business schools around the world“, so heißt es etwa in der Eigenwerbung.
Quacquarelli Symonds Ltd war früher für die Datensammlung für das „Times Higher Education Ranking“ zuständig und gibt – auf den Geschmack dieser Geschäftsidee gekommen – seit 2009 ein eigenes Ranking heraus. Quacquarelli hatte erkannt, dass man mit Rankings nicht nur ein gutes Eigen-Marketing betreiben kann, sondern damit gleichzeitig das eigene Vermittlungsgeschäft weltweit voranbringen kann. Nahezu alle Rankings haben vor allem das Ziel ihren Veranstaltern eine Medienöffentlichkeit zu verschaffen. Sie bedienen die Geltungssucht von Hochschulen und schaffen einen Marktplatz für karrierebewusste Studierende und geschäftstüchtige Anwerber. Die Motive für das QS Ranking sind rein kommerzieller Natur und die angebotenen „Dienstleistungen“ werden von den angeblich rund 3 Millionen international mobilen Studierenden, vor allem aber auch von Unternehmen bzw. Nachwuchsjägern und leider häufig auch von Hochschulen offenbar gern angenommen.
Das Geschäftsmotiv muss man im Auge behalten, wenn man die QS Rankings selbst betrachtet.
Da fällt zunächst einmal auf, dass unter den zehn erstplatzierten Universitäten 7 amerikanische und 4 britische sind (der 10. Platz ist doppelt besetzt). Unter den ersten zwanzig Unis finden sich 2 kontinentaleuropäische, nämlich die Schweizer ETH Zürich und die Ecole Polytechnique Fédérale de Lausanne. Die erste deutsche Uni landet gerade mal auf Platz 50, nämlich die Ruprecht-Karls-Universität Heidelberg („Memories of Heidelberg sind Memories of you“ (Song von Peggy March) lassen grüßen, schon Elvis Presley war in Heidelberg stationiert und sang „Auf wiedersähn“). Die TU München musste sich dahinter mit Rang 53 begnügen, lag damit aber immerhin noch vor dem Lokalrivalen, der Ludwig-Maximilians-Universität, die auf Rang 65 landete.
Schon jenseits der ersten 100 ist die Universität Freiburg gelistet (Platz 102), dann folgen noch die Freie Universität Berlin (Platz 109), das Karlsruhe Institute of Technology (KIT) (Platz 116), die Humboldt Universität Berlin (Platz 126), die Georg-August-Universität Göttingen (Platz 128), die Eberhard Karls Universität Tübingen (Platz 134), ziemlich abgeschlagen noch die Rheinisch-Westfälische Technische Hochschule Aachen (Platz 147) und die Rheinische Friedrich-Wilhelms-Universität Bonn (Platz 163), die Technische Universität Berlin (Platz 183) und schließlich mit der „roten Laterne“ der deutschen Universitäten, die Universität Hamburg (Platz 186).
Unter den ersten 200 Universitäten dieser Welt finden sich also nur 13 deutsche Universitäten und das nur im Mittelfeld oder auf den hinteren Plätzen. Die Uni Greifswald oder die Uni Siegen etwa, sind vermutlich noch nicht einmal in den Akten von Quacquarelli Symonds Ltd erwähnt. Von vorneherein, werden weltweit nur 700 Hochschulen erfasst.
Eine Schmach für den Wissenschaftsstandort Deutschland, wenn man dieses Ranking ernst nähme.
Deutschland liegt in diesem Ranking also weit hinter der kleinen Schweiz, hinter Großbritannien sowieso, aber auch hinter Frankreich. Nur die Niederlande, Spanien, Italien, Irland und Belgien schneiden noch schlechter ab. Mit noch einigen wenigen Hochschulen in Finnland und Dänemark ist Europa nach dem QS Ranking bestenfalls zweite Liga, ganz überwiegend aber höchstens Kreisklasse in der Weltliga der Hochschulen. Dafür findet man allein unter den ersten 100 „gerankten“ Universitäten 28 Hochschulen der Vereinigten Staaten, darunter so renommierte wie die University of Texas at Austin oder die Carnegie Mellon University. Nichts gegen diese Hochschulen, aber das erstaunt schon etwas.
Aber trotz ihres in diesem Ranking schlechten Abschneidens rühmen sich natürlich die deutschen Hochschulen, dass sie überhaupt genannt wurden und sie finden natürlich immer noch ein Argument, dass sie die besten seien: „Universität Heidelberg beste deutsche Hochschule“, verkündet diese voller Stolz.
So viel Eitelkeit ist eher peinlich.
Der Unsinn des QS Rankings – wie übrigens der beiden anderen internationalen Rankings auch – beginnt schon damit, dass ganze Hochschulen „gerankt“ werden. Es werden also Gesamturteile über Universitäten konstruiert und nicht etwa die wissenschaftlichen oder die Lehrleistungen einzelner wissenschaftlicher Einheiten dieser Hochschule. Jeder einigermaßen Informierte weiß: Auch die beste Hochschule in der Welt – sofern man ein solches Gesamturteil überhaupt treffen sollte – ist nicht in allen Fächern und Disziplinen gleich stark. Es gibt überall gute und weniger gute Fachbereiche, weil es eben auch mehr oder weniger gute und vor allem auch erfolgreiche Forscher gibt. Wobei auch solche Unterscheidungen äußerst schwierig sind. Ob ein Forscher einen wissenschaftlichen Meilenstein gesetzt hat, entscheidet sich meist erst nach vielen Jahren, manchmal gar Jahrzehnten.
Aber aufgrund solcher Tabellen kann sich jeder noch so unqualifizierte Forscher oder leistungsschwacher Studierender und jede noch so miserable Forschungseinheit einer Hochschule mit der jeweils im Ranking ihrer Hochschule zugewiesenen Platzierung rühmen. Jeder Absolvent des MIT ist also sozusagen Elite. Ja, auch George W. Bush hat Harvard besucht und hat damit seine Geistesgröße bewiesen.
Die Eigenarten der bildungspolitischen Landschaften in den einzelnen Staaten bleiben bei solchen undifferenzierten Einstufungen völlig unberücksichtigt. Aber es ist z.B. eine politische Entscheidung oder zumindest hat es etwas mit der Bildungstradition des jeweiligen Landes zu tun, ob man wie etwa im amerikanischen Hochschulsystem, eine hierarchisch tief gestaffelte Hochschullandschaft mit einigen wenigen Spitzenuniversitäten mit Ausbildungsangeboten für den Nachwuchs der Upper Class und einer großen Masse von Hochschulen ganz unterschiedlicher Qualität für die große Masse der Studierenden will, oder ob man nach der deutschen Tradition eine möglichst hohe Qualität in möglichst flächendeckender Breite für möglichst viele Studierenden anbieten möchte. Deutschlands Hochschulwesen hatte z.B. vor den „Reformen“ und „Exzellenzinitiativen“ der letzten Jahre seine international anerkannte besondere Stärke in der Breite der wissenschaftlichen Ausbildung bei hoher und vergleichbarer Qualität der Hochschulen. Und unser Land ist damit auch ökonomisch und innovatorisch offenbar nicht schlecht gefahren. Wenn man schon auf Rankings verweist, sollte man auch einen Blick auf das Shanghai-Ranking werfen, wonach Deutschland mit knapp vierzig Universitäten unter den Top 500 vertreten ist, das sind gemessen an der Zahl der Unis mehr als die USA. Aber damit soll auch dieses Ranking nicht als Gradmesser genommen werden, denn es ist genauso beliebig wie die anderen. So werden etwa die Zahl der Nobelpreisträger als wichtiges Kriterium genommen, diese Preise beziehen sich aber auf eine kleine Forschungspalette, wenn sie überhaupt eine aktuelle Aussagekraft haben. Das Ranking ist danach ausgerichtet die Kluft zwischen den chinesischen Unis mit den westlichen, vor allem englischsprachlichen Unis aufzuzeigen.
Man muss wissen, dass Hochschulrankings ursprünglich aus den USA stammen. Sie machen dort einen gewissen Sinn, weil die Qualität der Studienangebote der überwiegend privat organisierten Hochschulen recht unterschiedlich ist. Sie sollten dort an den überwiegend privaten Hochschulen ein staatlich garantiertes Qualitätssicherungssystem ersetzen. Rankings sind gerade für private Hochschulen von großer Wichtigkeit, weil sie einen erheblichen Einfluss auf deren Marktwert, d.h. auf die Höhe der einwerbbaren Studiengebühren haben. Es ist deshalb ganz interessant in diesem Zusammenhang einmal auf die Gebühren zu schauen, die die hoch „gerankten“ Hochschulen verlangen. Es ist sicherlich mehr als ein Zufall, dass gerade diese Hochschulen (fast in der gleichen Reihenfolge wie im QS Ranking) die teuersten sind. Und diese Rangfolge der teuersten amerikanischen Hochschulen hat sich in den Rankings seit fast 30 Jahren kaum verändert. Und das, obwohl Westeuropa die USA in der Anzahl der wissenschaftlichen Veröffentlichungen deutliche überflügelt hat – wenn man schon nach solchen Kriterien misst.
Wenn man genauer hinschaut, wie das QS Ranking zu seiner Hitliste kommt, werden die Zweifel nicht geringer. 40 Prozent der Reihung hängen von den Ergebnissen einer weltweiten Umfrage unter Akademikern zum Ansehen von Hochschulen ab, weitere zehn Prozent von einer zusätzlichen Befragung unter Arbeitgebern. Je 20 Prozent der Wertung ergeben sich aus dem Zahlenverhältnis Studierende-Lehrende sowie der Forschungsleistung gemessen in Zitierungen und je fünf Prozent aus dem Anteil an internationalen Studenten bzw. Forschern und Lehrenden.
Das letzte Wort liegt bei einem „Advisory Board“ mit 28 Mitgliedern. Darunter sind 7 Asiaten, 6 Amerikaner, 5 Briten, 4 Australier und 3 Südamerikaner und 3 Europäer. Ein Deutscher ist nicht dabei. Um nur ein Beispiel für die fragwürdige Autorität dieser Jury zu nehmen: Wirklich nichts gegen den Vize-Rektor der wunderschönen alten Universität von Coimbra in Portugal, schon die Bibliothek aus dem 16. Jahrhundert ist eine Touristenattraktion, aber die Liebe zum Fado de Coimbra ist eben noch lange kein Ausweis für Urteilskraft über die Wissenschaftslandschaft in Europa oder gar in der Welt. Kaum eines der Mitglieder im „Board“ hat sich durch wissenschaftliche Leistungen hervorgetan, es sind Wissenschaftsjournalisten, Berater, der Chef und der Herausgeber des QS Rankings und überwiegend Vize-Rektoren von irgendwelchen beliebigen Hochschulen. Wirklich nichts gegen die Ehrwürdigkeit dieser Personen, aber was weist sie aus, solche Urteile über zweihundert Hochschulen auszusprechen?
Da das Kriterium des sog. „academic peer review“ von höchstem Gewicht ist, würde man schon gerne wissen, wie viele, welche oder von wem diese „Peers“ ausgewählt wurden, wer sie empfiehlt, woher sie stammen und wie viele von wo kommen und warum. Wie sehen überhaupt die herangezogenen statistischen Daten aus? Wie hoch ist die Rücklaufquote? An Hand welcher Beurteilungsmaßstäbe kommen die „Experten“ zu ihrem Urteil? Usw. usf. Gibt es da einen regionalen Bias? Wer hat und nach welchen Maßstäben wurden die Hochschulen jeweils evaluiert? Gibt es eine sprachliche Dominanz? Alle diese Fragen sind beim QS Ranking ziemlich intransparent, ja, geradezu verschlossen in einer „Black Box“.
Wie zum Zweiten die Arbeitgeber urteilen, das hat mit der wissenschaftlichen Qualität der zu beurteilenden Hochschule sicherlich kaum etwas zu tun. Deren Urteil gleicht eher einer sich selbsterfüllenden Prophezeiung, das heißt, sie wählen die Hochschulen aus, deren Ruf sie ohnehin kennen und schätzen. Und es ist naheliegend, dass gerade solche Hochschulen ein besonderes Ansehen genießen, die enge Verbindungen zur Industrie haben, die also technisch-naturwissenschaftlich orientiert sind, wie etwa der Spitzenreiter MIT.
Es ist doch nur selbstverständlich, dass Personalchefs und Personalvermittler eher auf die Beschäftigungsfähigkeit der Absolventen als auf die Qualität ihrer wissenschaftlichen Ausbildung achten.
Vergleicht man eine naturwissenschaftlich ausgerichtete Hochschule mit einer Universität, die ihre Schwerpunkte eher auf dem Gebiet der Geisteswissenschaften hat, so vergleicht man ohnehin Äpfel mit Birnen.
Was das Zahlenverhältnis zwischen Studierenden und Lehrenden anbetrifft, müssen natürlich die deutschen Hochschulen miserabel abschneiden. (Und das ist in der Tat ein Alarmzeichen.) Aber ist es ein Ausweis von Lehrqualität, wenn dank horrender Studiengebühren die Betreuungsrelation an den amerikanischen Ivy-League-Universitäten erheblich besser ist. Ist eine Verschulung im kleinen Klassenverband mit bis auf die Seitenzahl vorgegebenem Lesestoff eine bessere wissenschaftliche Ausbildung als eine gute Vorlesung vor 200 Studierenden?
Nur mit 20 Prozent gehen die Forschungsleistungen ein. Wissenschaftliche Leistungen werden üblicherweise an wissenschaftlichen Auszeichnungen (z.B. Nobelpreisen) und nach ihrem „Impact“, also nach bibliometrischen Daten, wie etwa nach der Länge der Publikationsliste oder der Häufigkeit, wie oft Veröffentlichungen in Fachzeitschriften zitiert werden, gemessen. Als wissenschaftliche Leistung gilt demnach, was zahlenmäßig wahrgenommen wird. Resonanz gilt als Qualität. Doch der Impact Factor belegt eher, was in den jeweiligen Disziplinen gerade Mode ist, als dass er Qualität oder Forschungsinnovation ausweist.
Die Aussagekraft des „Journal Impact Factor“ ist dementsprechend höchst umstritten. Große Wissenschaftsjournale haben natürlich eine ganz andere Reichweite als kleine hochspezialisierte „Letters“, die häufig eine viel höhere wissenschaftliche Tiefe und Qualität aufweisen, aber wegen ihrer Spezialisierung von viel weniger Wissenschaftlern zur Kenntnis genommen oder überhaupt verstanden werden.
Und es ist doch eine offenkundige Tatsache, dass jeweils herrschende wissenschaftliche Schulen häufiger zitiert werden, als neue Ideen abseits des Mainstreams.
Ist es nicht angesichts der Tatsache, dass englisch den Rang einer wissenschaftlichen Verkehrssprache erlangt hat, ziemlich selbstverständlich, dass vor allem auch englischsprachige Veröffentlichungen zitiert und wahrgenommen werden? Ist es nicht so, dass weil eigentlich nur noch in Deutschland die Promotion und dazu auch noch die Habilitation vor allem als „Buch“ – will sagen als eine umfassende, in sich weitgehend vollständige Abhandlung über einen Forschungsgegenstand – anerkannt sind, nicht ein geradezu dramatischer Startnachteil junger deutscher Wissenschaftler gegenüber den weltweit üblichen kumulativen PhD-(Doktorgrad)-Abschlüssen mit einer Vielzahl von Einzelveröffentlichungen zu wissenschaftlichen Detailaspekten? Sind in englischsprachlichen Ländern nicht die Postgraduierten geradezu gezwungen ihre Arbeiten in wissenschaftlichen Zeitschriften unterzubringen, während die deutschen Doktoranden oder Habilitanden geradezu gehindert sind Detailergebnisse ihre Arbeiten zu publizieren?
Mit je fünf Prozent Anteil geht der Anteil an internationalen Studenten bzw. Forschern und Lehrenden in das QS Ranking ein. Hat dieses Kriterium etwas mit der wissenschaftlichen Qualität der Hochschule zu tun? Was sagt es ganz grundsätzlich über das Bildungs- und Hochschulwesen aus, wenn z.B. in den USA ein Drittel der erfolgten Promotionen und in den Natur- und Ingenieurwissenschaften bis zur Hälfte, in der Elektrotechnik gar zwei Drittel an Ausländer verliehen werden (Janson et al. zitiert nach Michael Hartmann).
Da eine halbe Milliarde Menschen auf der Welt englisch als Muttersprache sprechen (gegenüber 120 Millionen, die deutsch sprechen) und dazuhin englisch zur gängigen Wissenschaftssprache geworden ist, ist es deshalb nicht mehr als selbstverständlich, dass Studierende oder vor allem auch junge Wissenschaftler eher ins englischsprachige Ausland, also vor allem in die USA oder nach Großbritannien wechseln, als in Länder deren Sprache weitaus weniger verbreitet ist und wo das Studieren, aber auch das Lehren auf viel größere Sprachbarrieren stößt. Es ist doch viel komplikationsloser, wenn Asiaten oder Deutsche als ersten Fremdsprache englisch schon in der Schule lernen in den angelsächsischen Sprachraum wechseln, als wenn umgekehrt Amerikaner nach Deutschland oder Frankreich wechseln, deren Sprache sie nicht gelernt haben. Kleine Länder mit einer eigenen Sprache, wie etwa Griechenland oder die Länder des slawischen Sprachraums sind bei diesem Kriterium von vorneherein benachteiligt.
Man muss nicht so weit gehen wie etwa Brian Leiter, der Direktor des Center for Law, Philosophy, and Human Values an der University of Chicago, der bei solchen Rankings von einem „Betrug an der Öffentlichkeit“ spricht, aber es ist geradezu unwissenschaftlich, wenn sich Hochschulen ihrer Platzierung in solchen Rankings rühmen.
Und es ist gefährlich, wenn Studierende ihre Auswahlentscheidung an solchen Rankings orientieren, weil zumindest das QS Ranking ziemlich wenig darüber aussagt, wie die Lehr- und Studienqualität in den einzelnen Fächern an den jeweiligen Hochschulen ist. Noch schlimmer ist allerdings, wenn Hochschulleitungen und Hochschulpolitiker ihre Entscheidungen danach ausrichten, wie sie ihre jeweiligen Hochschulen auf solchen Rankinglisten nach oben bringen könnten. Die Gründe, warum das ein falscher Weg ist, sich etwa am QS Ranking zu messen, hoffe ich einigermaßen plausibel gemacht zu haben.
P.S.: Lesen Sie zur allgemeinen Kritik an Rankings etwa
- German Sociologists Boycott University Rankings
- Rankings sollen überall dort, wo kein Markt besteht und das Steuerungsinstrument des (Markt-)Wettbewerbs nicht funktionieren kann, also eben auch in der Wissenschaft, als Fiktion für den Wettbewerb dienen. Es ist jedoch ein Wettbewerb um die von den Ranking-Veranstaltern vorgegebenen Kriterien, mit denen versucht wird, Qualität durch quantifizierbares Messen darzustellen. Es handelt sich um die Übertragung betriebswirtschaftlicher Prinzipien auf wissenschaftliche Leistungen. Neben quantitativen Messgrößen (über deren Gewichtung und Relevanz man streiten kann) bleiben aber viele qualitative, nicht in Zahlen quantifizierbare Aspekte die für ein Urteil über die Lehr- und Forschungsleistungen unerlässlich sind, unberücksichtig.
- Siehe auch: Michael Hartmann: „Die Exzellenzinitiative und die Hierarchisierung des deutschen Hochschulsystems“
- Rankings im Wissenschaftssystem – Zwischen Wunsch und Wirklichkeit [PDF – 392 KB]