Imprimer cet article Imprimer cet article

La fascination des palmarès internationaux d’universités

La ministre de l’Enseignement Supérieur et de la Recherche a annoncé son intention de proposer à nos partenaires européens l’établissement d’un classement des universités[1]. Ce sera l’un des chantiers de la présidence française de l’Union Européenne qui débute en juillet. Les critères de ce classement devraient être définis dès le mois de septembre. Une conférence sera organisée à Nice, les 13 et 14 novembre 2008 sur les indicateurs de comparaison internationale.

APRES SHANGHAI

L’histoire commence en 2003 lorsqu’un petit groupe de chercheurs de l’université Jiao Tong de Shanghai publie le premier classement mondial des universités. Ce classement a un succès médiatique immédiat qui ne s’est pas démenti par la suite. La France est l’un des pays où l’intérêt a été le plus grand et les réactions les plus vives. Quelques titres de presse sont assez éloquents : « Le classement infamant des universités françaises » [2] ; « Les universités françaises à la traîne dans le classement mondial »[3] ; « Les universités françaises toujours à la traîne »[4] ; etc …

En 2007, on compte 22 établissements français dans la liste des 500 « meilleures universités » du monde, et 4 seulement font partie du top 100. Ce classement se base exclusivement sur la recherche (nombre de prix Nobel, nombre de professeurs figurant dans la liste ISI des chercheurs les plus cités[5], …). C’est un choix délibéré car, pour les chercheurs de Jiao Tong, seules les données de recherche sont suffisamment fiables et internationalement comparables pour faire un classement universel. Ils considèrent comme quasiment impossible de comparer les conditions et la qualité de l’enseignement sur une base mondiale, à cause des différences considérables de systèmes et de cultures qui existent entre les pays.

Nul n’a fait remarquer qu’avec le faible nombre de prix Nobel français, il était de toute façon difficile de figurer en haut du classement. Rappelons que dans les cinquante dernières années, sur 350 prix Nobel attribués, la France en a reçu 10 tandis que les USA en avaient 195 et le Royaume-Uni 45. Par ailleurs, ce classement favorise considérablement les sciences et les universités de langue anglaise qui sont sur-représentées dans l’index « HiCi » de ISI. Ainsi, par exemple, cet index affiche 168 chercheurs pour Harvard et 132 pour Stanford, contre 138 pour toute la France…

En fait l’essentiel des remarques a porté sur le caractère très morcelé du système français qui rend certaines institutions invisibles, et ne permettrait pas de totaliser les résultats à notre avantage. Dans l’interview du Figaro cité au début, la ministre insiste sur ce caractère morcelé et la nécessité de fédérer grandes écoles et universités au sein de grands ensembles, d’intégrer les universités de sciences humaines «très mal classées qui pourront mutualiser leurs forces avec les universités scientifiques et les grandes écoles » (en clair bénéficier de leur visibilité). Dans un entretien publié par le Mensuel de l’Université[6], Jean-Marc Monteil prend pour exemple « l’université de Toulouse III, université scientifique et de santé de haut niveau, qui est actuellement au fond des classements internationaux ; or si l’on prend en compte l’ensemble de la production des universités toulousaines, ce pôle ainsi constitué se retrouverait certainement dans les 60 premières universités mondiales ». On ne nous explique guère pourquoi une université scientifique de 30.000 étudiants, 1500 enseignants chercheurs et 750 chercheurs, aurait besoin de se fondre dans un ensemble hétérogène de 80.000 étudiants pour devenir visible dans un classement international qui privilégie la recherche et les sciences. Les questions de taille sont sans doute moins décisives pour les universités que les questions de gouvernance et d’organisation (Harvard a 20.000 étudiants, Stanford 15.000, le MIT 10.000). On pourrait aussi citer Pierre Veltz[7] à propos des regroupements arbitraires d’universités et de grandes écoles : « Les temps sont mûrs pour tenter des expériences novatrices et ambitieuses de rapprochement, voire de regroupement, entre écoles et universités. Mais on ne soigne pas deux malades simplement en les regroupant».

S’agissant de l’écho qu’a pu avoir le classement de Shanghai et des réactions qu’il provoque, on pourrait avoir un sentiment d’irrationalité. Il n’en est rien et il faut essayer de distinguer les enjeux qu’il y a derrière ce type de palmarès.

Pourquoi le classement de Shanghai a eu le succès qu’il a eu ? Il est certain que si le même classement avait émané de l’université de Tananarive, il aurait eu beaucoup moins d’écho. Ce n’est pas que l’université Jiao Tong soit tellement prestigieuse, mais son jugement émanait de la Chine, futur « maître du monde », dont le développement fascine et effraye quelque peu. La Chine, c’est de l’autre côté de la Terre, une sorte de point de vue de Sirius à l’envers, hors de portée des zones d’influence américaine, anglaise, française… Ce n’est pas que l’on ait à craindre que les étudiants chinois se détournent de nos universités. En France ils sont plus de 20.000 (sur 144.000 étudiants chinois faisant leurs études à l’étranger en 2007) ; leur nombre a explosé depuis quelques années ; ils représentent environ 10% de nos étudiants étrangers et on en trouve dans toutes les universités (par exemple une centaine à l’université de Corse).

LA VERITE DES PALMARES MONDIAUX

La vérité est que par les classements et les palmarès, se construisent des catégories d’appréhension du monde (comme l’explique si bien Pierre Bourdieu). Ils sont d’autant plus efficaces qu’ils reçoivent l’appui des médias qui produisent à partir d’eux des jugements globaux.

Le principe des classements à vocation mondiale est récent. Il existait des palmarès nationaux : celui de US News and World Report qui existe depuis 25 ans, a profondément influencé les universités américaines. Celles-ci sont réparties en plusieurs catégories, suivant la classification Carnegie[9], ce qui conduit à plusieurs classements. Les critères sont beaucoup plus la qualité de l’enseignement et le sort des étudiants, que la recherche.

Après le classement de Shanghai, est apparu en 2004 un autre classement à vocation mondiale publié par le Times Higher Education Supplement (« Times Higher »). Il s’agit d’un classement plus subjectif, principalement fondé sur la réputation (auprès des universitaires, des employeurs) mais aussi sur des indicateurs de qualité de l’enseignement (nombre d’étudiants par professeur) ou de la recherche (nombre de citations par professeur). On ne précise pas auprès de qui ces informations sont recueillies. Et, de fait, ce classement favorise beaucoup la Grande Bretagne (qui a autant d’universités classées dans le top-100 que les USA) ainsi que les nations de l’ex-Commonwealth. Le palmarès du Times Higher récompense davantage le marketing d’une université que sa recherche. Il n’y a qu’un petit nombre d’institutions, jouissant déjà d’un prestige suffisant, qui sont dans le champ de vision du Times Higher. On doit noter que ce classement est plus volatil que celui de Shanghai. L’histoire suivante a fait le tour du monde : En 2004, The university of Malaya obtint le 89ème rang dans le palmarès du Times Higher, ce qui fut célébré comme il se doit à Kuala Lumpur ; l’année suivante elle passa du 89ème au 189ème rang sans variation de ses performances ; mais cet épisode fut vécu comme un drame national, et le vice-chancellor fut viré…

Cette mode des classements à vocation mondiale accompagne, bien sûr, la mondialisation des échanges scientifiques, mais la raison ne tient pas qu’à la mondialisation. Après tout, du temps de Mersenne et Galilée, les échanges étaient tout aussi internationaux et il n’y avait nul besoin de classement de ce type. Bien sûr, il y avait moins de monde à classer, mais l’univers scientifique ne s’est pas élargi au point qu’un chercheur ait besoin de Shanghai pour jauger ses interlocuteurs.

Les classements jouent, comme les certifications et les labellisations, une fonction d’intermédiation : une façon de savoir vite et « objectivement » ce que vaut tel interlocuteur. Mais là encore la raison n’est pas totalement éclairante : chacun, dans son domaine scientifique, sait ce qui est performant en Europe, aux Etats-Unis ou ailleurs. S’il y a une équipe que l’on ne connaît pas c’est qu’elle n’est pas bonne.

En réalité ces classements assez rudimentaires appuient la montée en puissance des politiques scientifiques, faites et nourries des contributions de non-scientifiques… Eux aussi savent à peu près qui fait quoi, mais grâce aux classements, ils disposent d’éléments objectivables à l’appui de leurs décisions. Autrement dit, ce ne sont pas les classements qui font les politiques, mais les politiques qui font les classements…

ET LEURS PERVERSIONS

Les classements prétendent établir une réputation globale à partir de critères qui ne sont pas faits pour ça, et sur la base de cette réputation des décisions peuvent être prises. Quand la ministre de l’enseignement supérieur et de la recherche dit : « je souhaite que l’ensemble des universités françaises soient regroupées autour de 15 pôles »[10], elle exprime une politique qui va chercher sa justification dans le classement de Shanghai.

Dans beaucoup de domaines de recherche on peut admettre qu’une masse critique est souhaitable. Il faut favoriser la constitution de groupes de recherche de niveau international et il est indéniable que la compétition va vers une différentiation des universités suivant leur potentiel de recherche. Mais la politique qui vise à concentrer a priori tous les meilleurs groupes dans un petit nombre « d’universités d’élite », et à drainer sur elles l’essentiel de l’argent public et privé, est beaucoup plus discutable.

Est-ce que la productivité de la recherche sera améliorée en mettant dans la même université un brillant département de philosophie et un groupe de physique nucléaire performant ? Si l’on admet qu’il doit y avoir un lien entre enseignement et recherche, est-il souhaitable de transformer la grande majorité des universités en déserts scientifiques ? Et quid du transfert technologique ? Les classements existants rétrécissent la diversité, ce qui risque de réduire beaucoup le champ de ce qu’une société peut retirer de l’enseignement supérieur. Les palmarès encouragent les présidents d’université à concentrer leur énergie pour maximiser leur performance dans le cadre des critères imposés par les classements (notamment recherche, ou sélection des étudiants). Ils réduisent le champ des innovations, qu’il s’agisse de stratégie scientifique ou de pédagogie.

Les classements déterminent de façon brutale des gagnants et des perdants. C’est un jeu à somme nulle. On a un cercle vicieux qui tend à renforcer la réputation des institutions déjà réputées et à bloquer les jeunes institutions. Dans l’ouvrage de Franck et Cook, The winner-take-all society[11], on trouve l’anecdote suivante : une enquête américaine auprès des étudiants plaçait la faculté de Droit de Princeton dans les dix premières facultés de Droit ; le seul problème c’est que Princeton n’a pas de faculté de Droit… Les classements augmentent les différences entre les universités de recherche et les autres, et plus généralement entre toutes les catégories d’universités, dans des systèmes universitaires nationaux initialement unifiés. Ils peuvent être aberrants et destructeurs comme le montre l’histoire de l’université de Malaisie. La diversité des institutions est très liée aux sociétés et aux cultures nationales, à leur histoire, aux ressources nationales… On prend trop exclusivement en considération les universités de recherche. Les universités techniques, écoles d’ingénieurs ou formations professionnelles (vocational institutions) sont très importantes, surtout dans certains pays non-anglophones (Allemagne, France, Suisse, Finlande…). Et puis, comment un classement complètement dominé par les pays riches peut-il contribuer à construire des systèmes universitaires de qualité dans les pays émergents ?

Ce n’est pas parce qu’on gagne des médailles aux Jeux Olympiques que le niveau sportif ou sanitaire d’une nation augmente. Ce n’est peut-être pas un hasard si ce sont les australiens dont les performances aux Jeux Olympiques sont nettement au dessus de leur poids démographique, qui ont émis les critiques les plus pertinentes des palmarès d’universités… On en trouvera une analyse très fine et très percutante dans les papiers de Simon Margison[12] du Center for the study of Higher Education (University of Melbourne). Je m’en suis largement inspiré pour écrire cet article. On peut lire également avec intérêt une communication de Ian Young[13], vice-chancellor, Swinburne University of Technology. Dans celle-ci on trouvera une intéressante discussion des résultats du classement de Shanghai pour les pays de l’OCDE. L’auteur montre que si l’on rapporte le nombre d’universités d’un pays donné figurant dans les 500 « meilleures universités » (ou dans le top 100), à la population de ce pays, on obtient un paysage beaucoup moins contrasté que le classement brut. Et même, certains pays comme l’Australie, la Suisse, les Pays-Bas, les pays scandinaves, font beaucoup mieux que les USA. Plus intéressant encore, il montre qu’il existe une corrélation entre ces résultats normalisés et les dépenses de recherche par tête dans chaque pays.

ET MAINTENANT OU VA-T-ON ?

Il y a eu un grand nombre de papiers et d’analyses critiques sur les palmarès d’universités. Et l’on a vu fleurir les classements les plus variés, suivant le principe qu’on n’est jamais si bien classé que par soi-même. Par exemple, l’Ecole des Mines de Paris a pris comme critère le nombre d’anciens élèves occupant actuellement le poste de dirigeant de l’une des 500 plus grandes entreprises mondiales. Avec pour résultat de faire apparaître 5 grandes écoles française dans les 10 premiers, à côté de Harvard, Stanford ou du MIT. Le directeur de l’Ecole des Mines a expliqué sans rire que, si l’on additionne les points, Paris Tech (vague consortium de grandes écoles) se classe devant Harvard[14]. En vérité, ce classement ne fait que conforter l’idée que les grandes écoles auraient pour fonction principale d’occuper les places dans les grandes entreprises, comme dans l’Etat.

Pour avoir des informations sur les différents classements, on peut utilement consulter The ranking Forum of Swiss universities. Ce sont des européens qui ont proposé les approches les plus novatrices. Ainsi une institution allemande, le Center for Higher Education Development (CHE) a proposé une méthode de classements qui se démarque nettement des palmarès, dans la mesure où elle se refuse à intégrer les différents indicateurs dans un seul indicateur de rang pour chaque université. A côté de l’exploitation de données factuelles, le CHE procède à des enquêtes auprès d’un grand nombre de professeurs et d’étudiants. Il fournit un ensemble très riche de données comparatives dans des domaines spécifiques, qu’il est cependant difficile d’interpréter pour des institutions qui forment elles-mêmes un ensemble peu homogène. Il y a aussi l’idée d’introduire une typologie d’institutions ayant une diversité de missions (comme la classification Carnegie). Mais à l’intérieur d’une catégorie donnée d’universités on pourrait avoir la même situation que dans un classement unique (c’est le cas pour le US News and World Report). En tout cas, le CHE s’est positionné pour être l’instrument européen que beaucoup souhaitent. Mais l’OST français pourrait également proposer son savoir-faire.

Un objectif est de briser le caractère « holistique » des classements. Celui de Shanghai est pris comme tel, ce qu’il n’est pas dans son principe même. Ce n’est pas non plus la volonté de ses auteurs qui ont essayé d’atténuer ce caractère en produisant désormais 5 classements, par grands champs disciplinaires. Mais il faut comprendre que l’avenir des classements est déterminé, non par leurs auteurs, mais par ceux qui les utilisent (médias, technocrates gouvernementaux, universités,…). On n’éliminera pas facilement les perversions des palmarès…


[1] Le Figaro du 26.02.2008
Valérie Pécresse est intervenue à de nombreuses occasions sur le thème des indicateurs et des classements auquels elle attache une grande importance. Voir aussi son intervention au colloque annuel de la CPU (avril 2008).

[5] Thomson/ISI highly-cited researchers (HiCi) : liste des 250 chercheurs les plus cités, dans 21 domaines. 3614 sont aux USA…

[7] Pierre Veltz : « Faut-il sauver les grandes écoles ? ». Sciences Po Les Presses (2007)

[11] Franck R. & Cook P. The winner-take-all-society. The Free Press, New-York (1995).

[12] Simon Margison : Global university rankings : where to from here ?
Simon Margison & Marijk van der Wende : To rank or to be ranked : the impact of global rankings in Higher Education. Journal of Studies in International Education, vol 11, N° 3/4 (2007)

[13] Ian Young : Building Australian Higher Education Research.

[14] Classement des universités par l’Ecole des Mines : la réplique française.