Dimanche 6 novembre 2005


Le classement 2005 des 200 « meilleures » universités mondiales par le Times Higher Education Supplement (T.H.E.S.) vient de sortir.
Une fois encore, l’ULg n’apparaît pas dans ce classement, alors que l’ULB (76è), l’UCL (88è) et la KUL (95è) sont bien classées.
Ce n’est pas une surprise… Après tout, nous nous trouvions à la 344è place l’an dernier et réagissant à cette nouvelle en janvier, il eût tenu du miracle que nous nous hissions dans les 200 premiers en 6 mois (l’enquête a été réalisée au mois de juillet-août).
Toutefois, il serait intéressant de savoir si, au moins, nous avons progressé dans le classement.

J’ai donc contacté directement les auteurs de l’enquête pour qu’ils me communiquent des informations plus complètes : où nous situons-nous dans le classement général ? où nous situons-nous pour chacun des critères ?
Ce n’est qu’en présence de ces informations que nous pourrons tirer les conclusions qui s’imposent. Je rappelle que, dans l’enquête de l’Université de Shanghaï réalisée l’an dernier et basée sur des critères plus convaincants, nous nous classions 263è mondial et 97è européen — une information qui ne pourrait ressortir du classement du T.H.E.S. — et les trois mêmes universités belges (ULB, UCL et KUL) figuraient dans le top-200 mondial et le top 50 (52 pour l’UCL) européen.

———————————
Dear Mr Ince,

I have just read the new Times H E Supplement on the World University Rankings.
Of course, it is not easy for me to acknowledge once again that my university does not belong in the top 200.
However, making such a leap forward in less than a year would have been simply prodigious and I was not exactly expecting this.
My purpose here is to ask you in which position the University of Liège is actually ranking, according to your criteria.
This will tell me how far we are lagging behind our fellow Belgian universities.
It is important for me to know because we all admit that there are no such considerable differences between Liege, Louvain and Brussels in terms of most of the criteria. I admit that Liege itself is less notorious than Brussels as a city and than Louvain which is a university of almost millenary tradition in Europe. Considering that notoriousness is a key factor in the THEWU Ranking, I understand the results to some extent, but I would like to evaluate how far we are.
I would be delighted if you could send me any information on our results in the various criteria as well as on our overall ranking.
It would be very fruitful to us, in order to improve our position in the next few years, which is, I believe, one of the aims of the THEWU Rankings to start with.

Thanking you very much in advance, I remain,
Sincerely Yours.

Professor Bernard Rentier
Rector
University of Liege
———————————

Dear Dr Rentier

Thank you very much for this email.
In our final analysis, your institution was 296 in the world, 48 places higher than in 2004.
You are right that Liege itself is less familiar than Brussels or Leuven as an academic centre, both in the opinion of academics and of employers. It seems from our results that you have a fairly staff body, but do not generate a large amount of citations
The scores were :
Peer review 12
Employer 3
International staff 9
International students 34
Staff/student 14
Citations 4
Total 16 cf Harvard 100

Best regards

Martin Ince
———————————

Le classement 2004

Avant de tirer des conclusions hâtives, il convient de revenir sur la manière dont cette analyse a été faite. Examinons celle de 2004.

Elle a été confiée par le T.H.E.S. à une firme privée : QS, de Londres.
Celle-ci a commencé par collationner deux données pour chaque institution :
1. Un « Peer review score », c’est-à-dire une enquête de notoriété. Elle consistait à demander à un échantillon de 1.300 universitaires de 88 pays sur tous les continents quelles sont les universités qu’ils considèrent comme les plus prestigieuses dans leur domaine d’activité, un critère exclusivement basé sur la notoriété. Cet élément d’enquête compte pour 50 % dans le calcul final.
2. Une mesure de l’impact de la recherche, calculé sur base des citations des membres des institutions répertoriées dans « Essential Science Indicators » (publié par Thomson Scientific, ex-ISI). Un critère favorisant indiscutablement les anglo-saxons et les sciences dites « dures ». Cette mesure intervient pour 20%.

Sur base de ces deux éléments, QS a opéré une sélection des 300 premiers classés après élimination d’un petit nombre d’institutions spécialisées qui ont produit moins de 5.000 publications sur l’année (une rapide enquête sur « Scholar Google » en détecte 27.778 pour l’ULg en 2004, mais en comptant 2.530 publications pour le CHU de Liège qui « omettent » de mentionner l’ULg, 658 qui se déclarent du Centre hospitalier universitaire de Liège et 2.600 de l’University Hospital of Liège !)

Ensuite, QS a recherché un complément d’informations dans les bases de données telles que celles de l’ISI, sur les sites web, ainsi que par courriel ou téléphone aux institutions elles-mêmes. Les questions posées :

3. Le rapport d’encadrement (20 %)
4. La proportion d’encadrants étrangers (5 %)
5. La proportion d’étudiants étrangers (5 %)

Interviennent également dans le classement :

6. Le nombre de lauréats du Prix Nobel ou de la Médaille Fields
7. Le nombre et le rapport d’encadrants belges et internationaux
8. Le nombre et le rapport d’étudiants belges et internationaux normalement inscrits (hors-Erasmus)
9. L’ampleur de la mobilité étudiante dans des réseaux d’échange (entrants et sortants)
10. Le nombre d’étudiants de 2è et de 3è cycles
11. Le montant moyen du minerval pour les étudiants internationaux de 2è cycle et de 3è cycle
12. Les dépenses totales pour les bibliothèques

Le classement 2005

Cette année, on ne nous demandait plus les lauréats de prix Nobel ou de médaille Fields et surtout l’enquête de notoriété ne comptait plus que pour 40 %. Néanmoins, l’esprit de cette évaluation n’était pas fondamentalement modifié.

De quoi paniquer ?

Sans doute n’est-il pas nécessaire de s’inquiéter particulièrement. Rien ne fait de ce classement un passage obligé. Les critères qu’il utilise sont très contestables et particulièrement biaisés. Le succès des universités australiennes est très suspect (13 dans les 161 premiers !), de même que celui des universités de Hong Kong ou de Singapour. Il se trouve que je connais personnellement quelque peu l’Université de Novosibirsk et son président. Sa 169è position laisse rêveur… Mais mon propos n’est certainement pas de dénigrer quiconque. Qu’on apprécie le choix des critères ou non, leur pondération et les inévitables biais qu’ils induisent sont les mêmes pour toutes les institutions francophones belges et les écarts que nous constatons avec nos universités-sœurs de Bruxelles et de Louvain doivent nous amener à nous poser des questions. Questions auxquelles nous devons répondre rapidement si nous voulons combler ce retard, non pas en une année pour la prochaine édition, mais dans les 4 ou 5 années à venir.

Nous avons donc significativement progressé, puisque nous sommes entrés dans le top 300, ce qui nous a valu d’être interrogés plus avant et d’être inclus dans la seconde phase de l’enquête. Nous étions 344è en 2004. Pas de quoi pavoiser, mais en position honorable quand même, eu égard au grand nombre d’universités qui existent dans le monde et au solide biais de l’enquête en faveur de la notoriété.

A quoi pouvons-nous attribuer notre progression ?

1. A l’importance moindre accordée à la simple notoriété en 2005 (40% au lieu de 50%).
2. Aux efforts que nous avons fait pour donner une meilleure estimation de notre production scientifique, grâce à une enquête réalisée auprès des départements cet été.
3. A une évaluation plus précise des informations demandées par les enquêteurs grâce à la mise sur pied d’une coordination des réponses à ce genre d’enquête par les administrations de l’Enseignement et de la Recherche au sein du service des Relations extérieures de l’ULg, ainsi que grâce à l’enquête réalisée cet été auprès des départements de l’ULg en matière de publications. Cette coordination permet de mieux faire face à ces demandes extérieures qui arrivent souvent sans crier gare.
Le mouvement entamé est donc le bon. Il nous reste à le perfectionner.

Comment progresser ?

Comme je l’ai annoncé, nous allons entamer une réflexion de fond sur la question de notoriété, en examinant en particulier les moyens à notre disposition pour améliorer notre image auprès de nos diplômés actuellement répandus à la surface de la planète. Ils assurent une partie importante de notre réputation dans le monde. Les étudiants étrangers qui ont étudié chez nous peuvent, s’ils sont heureux de leur séjour ici, contribuer à notre aura internationale. Accueillons-en beaucoup et accueillons les bien.

En termes de publications, de toute évidence notre second point faible (trop peu de citations), certaines mesures s’imposent.
Une cellule de veille (mixte Réseau des Bibliothèques-Relations extérieures-ARD) examinera dorénavant les publications de l’ULg et vérifiera que l’appellation Université de Liège ou University of Liege est toujours bien employée, y compris par nos collègues qui travaillent partiellement au CHU ou dans un organisme qui nous est associé. Pour tout dire, certains membres de centres de recherche de l’ULg omettent de mentionner celle-ci dans leurs publications! Je signalerai personnellement ces manquements aux intéressés et leur rappellerai cette obligation qui s’applique à tout membre à temps plein ou à temps partiel de l’Institution.
Cette cellule vérifiera également les calculs du THES et les maintiendra à jour.

Je compte demander au Réseau des Bibliothèques de me fournir des informations plus précises sur la production scientifique des membres de l’Institution. Il s’agit là d’un projet que je caresse de longue date, cette opportunité va nous permettre de lancer une grande opération de mise à jour permanente des publications de l’ULg. Nous pourrons ainsi être plus précis et fournir une estimation plus réaliste de notre production scientifique.

Notre projet « Répertoire institutionnel » qui a l’ambition de répertorier toutes les publications de l’ULg va être accéléré et se voir accorder des moyens adéquats. Il devra comprendre toutes les publications récentes des membres de l’Institution.
Afin d’assurer à ce projet la meilleure exaustivité, dorénavant les évaluations des curricula vitae des membres de l’ULg pour quelque propos que ce soit (nomination, promotion, demande de crédit, etc) se baseront exclusivement sur les données introduites dans la « bibliographie institutionnelle ». Chacun aura donc à cœur de participer systématiquement à l’établissement de cette base de données. Même si, dans un premier temps, cette mesure va paraître contraignante, elle deviendra rapidement un soutien apprécié des chercheurs, j’en suis sûr. En effet, toute répétition de cet encodage deviendra inutile. La seule contrainte sera de maintenir cette base à jour. Nous tâcherons de rendre cet accès aussi convivial que possible.
Cette mesure aura également pour effet de donner à notre institution un outil qui lui manque depuis longtemps : un répertoire de sa production scientifique, vitrine de sa recherche.

Enfin, je tiens à encourager tous nos chercheurs, quel que soit leur domaine de recherche, à publier le résultat de leurs travaux dans des revues à diffusion internationale reprises dans les sources d’information pour l’évaluation du nombre de citations. Que l’on m’épargne les réserves d’usage concernant le biais anglo-saxon de ces mesures, ainsi que le biais en faveur des sciences dites dures ou exactes et des sciences bio-médicales, je les connais et je les comprends. Néanmoins, je constate que ce n’est guère dans ces domaines que nous sommes à la traîne de nos universités-sœurs de la Communauté française, mais plutôt dans des domaines qui touchent aux sciences humaines où nos collègues des autres institutions se placent mieux à cet égard. J’insiste donc pour que chacun réfléchisse aux opportunités qu’il ou elle peut avoir de publier ses recherches dans des revues à grand lectorat qui lui donnent plus de chances d’être cité(e).

Et, bien évidemment, j’en profite pour rompre encore une lance en faveur d’un de mes « dadas »: la publication en accès libre qui est en train de devenir, comme je l’avais annoncé il y a deux ans, un des vecteurs de lecture démontrant la plus forte croissance aujourd’hui, en termes de citations et de facteur d’impact. Je rappelle, à cet égard, que l’Institution aide et encourage concrètement ses chercheurs à choisir cette voie.

Je compte enfin demander à 4 de mes conseillers (Recherche, Enseignement, Image et Relations internationales) de plancher sur la question et de soumettre dans les prochains mois un rapport sur la stratégie à mettre en œuvre pour répondre efficacement à ce que je considère malheureusement comme un manque global de notoriété de notre université. Certes, je sais que beaucoup d’entre nous sont mondialement connus, mais force nous est de constater que ceci ne retombe pas de manière efficace sur l’ensemble de l’Institution.

Deux commentaires à l’article ci-dessus ont été déposéés sur le blog interne, je les reproduis ici.

Merci pour votre commentaire éclairé de ce classement : le rappel des critères sur la base desquels certaines universités sont distinguées commes les “meilleures” est une chose essentielle, méconnue du grand public… et parfois des membres de l’université eux-mêmes. Ce rappel des critères impliqués nous indiquent au moins dans quelle direction travailler, et nous épargnent le triste sentiment de mésestime que l’on rencontre parfois dans les petites et moyennes universités, où certains font cependant un travail remarquable.

Que la notoriété constitue un critère déterminant (majeur) dans un classement dont les conclusions s’énoncent dans un terme (”meilleur”) qui désigne généralement une “qualité” (ce qui donne à penser qu’il s’agit de la qualité de la recherche et de l’enseignement des universités), nous pouvons toutefois légitimement nous en étonner, puisque ces phénomènes (notoriété-qualité) ne sont pas de même nature. Même si l’on voit bien les corrélations plus ou moins fortes qui peuvent lier la notoriété et la qualité de la recherche, ne devons-nous pas prendre également en considération le fait que la notoriété croît ou décroît naturellement en proportion de la taille des universités (nombre de membres du personnel et des étudiants) ? D’autres éléments n’entrent-ils pas en ligne de compte, qui sont, eux, en corrélation de plus en plus floue avec la “qualité”, tels que la notoriété acquise dans le passé, la présence de centres de recherche anciens et bien connus, etc. ?

Merci pour cette réflexion.

Florence Caeymaex
Collaborateur scientifique FNRS
Philosophie morale et politique

___________________________________________________________________

Merci pour ces commentaires fort éclairants sur la méthodologie utilisée lors de la réalisation de ce genre de classements. Si la méthodologie est évidemment discutable, comme sans doute le principe même d’établir ce type de classements, force est pourtant de constater qu’ils ont une importance, et qu’il serait vain d’essayer de nous y soustraire. Ces classements ont un écho dans la presse, ont un impact sur la réputation de notre université (et donc de nos travaux), déterminent sans doute le choix de certains étudiants, et en particulier des étudiants étrangers… Je me réjouis donc de lire qu’un effort va être fait pour que nous progressions dans ce classement !

François Gemenne.