sam 28 sept 2013
Le texte de mon discours de Rentrée académique 2013 est disponible ici.
sam 28 sept 2013
Le texte de mon discours de Rentrée académique 2013 est disponible ici.
lun 2 sept 2013
Visiblement, et contrairement aux prédictions de la Fédération des Etudiants Francophones (FEF), le test (obligatoire mais non contraignant) avant l’entrée au 1er Bac Médecine n’a découragé personne: il y a plus de candidats déclarés aux 2 sessions que d’inscrits l’an dernier.
En juillet, il y avait 1.065 inscrits dont 976 ont passé le test.
56 candidats inscrits en juillet se sont réinscrits (information datant d’avant la prolongation d’une semaine), vraisemblablement pour voir s’ils pouvaient améliorer leur résultat en 2 mois.
2.008 candidats se sont donc inscrits pour la première fois en 2ème session.
2.984 étudiants (maximum) pourraient s’inscrire pour la première fois en Médecine en FWB en 2013-14 (Les ‘répétants ‘ou bisseurs’ ne sont pas repris ici, vu qu’ils ne doivent pas présenter le test), contre deux mille environ en 2012. Ce nombre pourrait neanmoins être quelque peu plus bas si tous les inscrits ne présentent pas et si certains, au vu de leur résultat, décident de mieux se préparer ou de se réorienter.
Il n’en reste pas moins vrai que ce système ne tient guère compte des étudiants qui, en dernière année du secondaire, doivent présenter une seconde session, certaines écoles n’ayant terminé ces examens qu’assez tard en août. Hormis cette difficulté, qui valait surtout si la date limite d’inscription au test était le 23 août (elle a finalement été reportée au 30 août) le test ne semble pas du tout altérer l’enthousiasme et les vocations, loin de là, comme les nombres l’indiquent.
Je partage néanmoins l’avis de la FEF sur un point: il vaudrait mieux donner aux universités les moyens d’accueillir avec plus d’efficacité et un meilleur encadrement tous les étudiants qui désirent faire des études médicales en vue d’exercer un métier pour lequel on prévoit une pénurie. Les restrictions budgétaires qui frappent le secteur public, même si elles ont été atténuées le plus possible pour l’enseignement, font très mal à une époque où la formation est considérée comme la planche de salut de la « crise »…
lun 19 août 2013
Ces derniers jours, suite à la sortie du classement dit « de Shanghai » des universités mondiales (« Academic Ranking of World Universities », ARWU), événement que la presse, tant en France qu’en Belgique, considère comme « très attendu et très controversé », j’ai été interviewé par plusieurs journalistes (Le Soir, L’Avenir, SudPresse). Comme toujours, la nécessaire concision des articles tronque le propos, efface les nuances et évacue le raisonnement sous-jacent, ce qui confère à mes déclarations un aspect tranché et catégorique, c’est la loi du genre. En outre, étant opposé au principe même de toute forme de classement d’universités, mon obstination à en dénoncer les effets pervers est généralement perçue comme une réaction de ‘mauvais perdant’. En fait, il n’en est rien:
a) mon jugement sur les classements n’est pas neuf, je les dénonçais déjà en 2007,
b) non seulement mon avis n’a pas varié mais il serait rigoureusement le même si la position de l’ULg était meilleure (elle n’est d’ailleurs pas mauvaise du tout: le ‘top 300‘ sur des milliers d’universités, c’est évidemment très honorable, il suffit de feuilleter la liste de celles qui nous suivent, elle est édifiante…),
C’est pourquoi je pense nécessaire de m’expliquer quelque peu.
1. Qu’est-ce que le classement ARWU ?
Il existe entre 9.000 et 17.000 institutions dans le monde qui se considèrent comme universités, selon l’International Journal of Scientometrics, Infometrics and Bibliometrics. L’ARWU en retient environ 1.000 qui présentent une des caractéristiques suivantes*:
✔ avoir dans son personnel académique un ou des lauréats du Prix Nobel ou de la Médaille Fields (mathématiques);
✔ avoir des chercheurs fréquemment cités (?) ou ayant publié dans la revue Nature ou Science (données fournies par Webofknowledge.com);
✔ avoir un nombre significatif (?) d’articles publiés indexés par le « Science Citation Index-Expanded (SCIE) » et le « Social Science Citation Index (SSCI) » (données également fournies par Webofknowledge.com)
Ensuite, sur la base de principes méthodologiques dans lesquels intervient le nombre de membres du staff académique** (?), le classement retient environ la moitié de ces sélections, soit 500.
Sur cette base est calculée une « Academic Per Capita Performance« , qui correspond au poids relatif des indicateurs que je viens de citer divisé par le nombre de membres du staff académique (en équivalents temps plein).
Un score très anglo-saxon
Les Etats-Unis placent 52 de leurs universités dans les 100 premières, le Royaume-Uni 9, l’Australie 5, la Suisse 4, le Canada 4, l’Allemagne 4, la France 4, le Japon 3, la Suède 3, les Pays-Bas 3, Israël 3, le Danemark 2, la Norvège 1, la Finlande, 1, la Russie 1 et la Belgique 1 (donc 32 pour l’Europe).
Pour la Belgique, on trouve l’Université de Gand (85ème), la KUL, l’UCL et l’ULB (toutes trois quelque part entre 101 et 200*), l’Université d’Anvers et l’ULg (toutes deux entre 201 et 300) et la VUB (entre 301 et 400).
2. Le principe du classement des universités est absurde.
Le seul fait de vouloir classer les universités sur base de leur « performance » est un non-sens: on ne peut effectuer un classement d’objets qu’à partir d’une valeur unique attribuée à chaque objet. Si on détermine, pour une même institution, plusieurs valeurs (par exemple pour des activités d’ordre différent: enseignement, recherche, relations avec le monde extérieur, rayonnement international, etc.), on génère nécessairement plusieurs classements parallèles et différents. Étant donné la complexité des activités accomplies par les universités, des dizaines de critères peuvent être pris en considération, ce qui implique des dizaines de classements différents. Les globaliser pour obtenir un classement unique est non seulement irréaliste, mais en totale contradiction avec la rigueur méthodologique que nous essayons de transmettre à nos étudiants.
Des missions très diverses.
Les universités accomplissent diverses missions, généralement rangées en 3 catégories: enseignement, recherche et service à la collectivité. On imagine facilement qu’une université puisse être très ‘performante’* en recherche et moins en enseignement. Ou l’inverse. En amalgamant ces deux missions, sans parler de la troisième, on mélange des pommes et des poires et on obtient un chiffre qui ne correspond à rien. En outre, on peut disserter à perte de vue sur la pondération à appliquer aux différents composants…
Des domaines très divers.
Mais l’aberration ne s’arrête pas là. Non seulement les universités effectuent simultanément plusieurs missions, mais elles se spécialisent à un très haut niveau dans des domaines extrêmement variés. On sait que chaque institution ne présente pas la même excellence en tout, il existe donc, pour chacune d’entre elles, des spécificités fortes. Ici également, regrouper l’ensemble des domaines en une valeur moyenne n’a que peu de sens et masque les points forts.
Une analogie simple.
Pour mieux me faire comprendre, je vais recourir à une comparaison caricaturale. Imaginons que quelqu’un souhaite se lancer dans le classement des êtres humains et décrète que les indicateurs de qualité ou de performance sont:
1) la taille,
2) l’aptitude au calcul mental,
3) le temps de sprint sur 100 mètres,
3) le revenu mensuel brut,
4) la capacité d’ingurgitation de saucisses de Francfort en une heure,
5) le nombre de livres lus dans sa vie et
6) le nombre d’enfants.
Chaque indicateur présente un intérêt discutable et sujet à controverse. Le caractère ‘signifiant’ de ces critères peut évidemment être mis en doute individuellement: un critère peut être considéré par certains comme majeur et par d’autres comme sans intérêt, voire même négatif. Comment concilier ces avis? Et en supposant même que tout le monde soit d’accord, quelle pondération doit-on donner à chacun d’eux? Et finalement, quelle valeur aura la cote finale unique accordée à chaque individu, donc à son classement?
On aura compris que c’est là ‘mission impossible’. Plus un sujet d’observation est complexe et présente des caractéristiques variées et indépendantes (ou faiblement dépendantes), plus il est déraisonnable de vouloir simplifier son évaluation, et absurde de le faire en une seule notation.
La tentation d’apparaître.
Seulement voilà. L’être humain est terriblement demandeur de classifications dans tous les domaines. C’est le principe populaire du « hit parade »: élémentaire, confortable et rassurant.
Le premier classé est implicitement le ‘meilleur’ et le dernier est implicitement le ‘moins bon’. Le transfert vers la presse transforme l’implicite en explicite.
En outre, les classements piquent l’amour-propre. Après un tollé sonore provenant essentiellement des universités non anglophones, incontestablement dédaignées par tous les classements mondiaux, et un appel au boycott dans différents pays, on a assisté à des réactions visant à tenter de remonter dans les classements et d’y faire bonne figure. Dans ‘Le Monde’ du 15 août 2013, jour-même de la publication du classement de Shanghai, on lit: « L’université de Strasbourg (97e) intègre le Top 100 en raison du prix Nobel attribué, en 2011, à l’un de ses chercheurs, Jules Hoffmann. En 2012, cette distinction avait été ‘oubliée’ par le classement de Shanghai, qui a corrigé le tir après une protestation du ministère français de l’enseignement supérieur. L’Ecole normale supérieure de Lyon tire, elle aussi, le bénéfice de la médaille Fields attribuée, en 2010, au mathématicien Cédric Villani, et se place dans les 300 premières mondiales après que l’intéressé lui-même et le ministère eurent rappelé cette distinction à l’équipe de l’université Jiaotong. »
Mais attention: dès lors qu’elle cherche à rectifier ce qu’elle considère comme une erreur de positionnement dans le classement pour ce qui la concerne, une université accorde ipso facto une validation à la démarche de classement. Il lui devient ensuite impossible d’en contester le principe et la méthode. C’est un des pièges des « rankings ».
3. La méthode pose problème.
Considérons qu’il ne soit pas ou plus aujourd’hui possible de faire marche arrière. D’aucuns considèrent que puisque « ces classements existent, il faut bien les prendre en considération. » Je ne partage pas ce point de vue: ce n’est pas parce qu’un concept prévaut dans l’opinion qu’il faut s’aligner et l’adopter. Mais jouons le jeu. Analysons la méthode employée. Les choses ne s’arrangent pas…
Un choix de critères surprenant.
Même si on admet le principe et la nécessité de faire des classements, on est immédiatement frappé par le côté subjectif de l’analyse. Toute tentative d’objectiver le subjectif est périlleuse et souvent vouée a l’échec. Par son côté rassurant, l’objectivation, surtout si elle est numérique, se pare d’un caractère incontestable. Le leurre de l’objectivation par les chiffres fonctionne ici à plein. Mais on ne peut se priver de l’examen du bien fondé:
1) du choix des critères,
2) de la décision de leur attribuer une valeur positive ou négative,
3) du poids relatif à leur attribuer.
Les critères utilisés (Nobel/Fields, Nature/Science, SCIE/SSCI) sont étonnants, comme leur poids relatif. Le biais en faveur de l’activité de recherche est manifeste. Ça peut se défendre, mais il faut que ce soit clairement assumé.
Beaucoup de questions restent ouvertes: le nombre d’étudiants fréquentant l’université évaluée devrait-il être pris en compte? Si il l’est, constitue-t-il un élément positif, reflétant l’importance de l’institution? Ou négatif, en raison de la charge que ces étudiants représentent et qui distrait les encadrants de la recherche? Ce n’est pas clair.
Un journal m’a fait dire « les grosses universités avec beaucoup d’étudiants ont plus de chance d’être en haut du classement » Je n’ai pas dit ça et je ne le pense pas: les universités les mieux classées sont de loin les plus sélectives. Il y a moins d’étudiants à Harvard (19.000) qu’à l’ULg (22.000)! Mais il faut aussi mentionner que les droits d’inscription y sont 60 fois plus élevés… L’ULg n’a évidemment pas la prétention de jouer dans la même division que Harvard, une université qui jouit d’un prestige mondial exceptionnel lui assurant des enseignants et des étudiants hors-norme. Son nom est même devenu synonyme d’université de premier plan. Mais l’ULg et les autres universités belges la devanceraient certainement dans un classement qui serait basé sur l’ouverture sociale et l’accessibilité… En les alignant dans le même classement, on compare donc bien des pommes et des poires.
En fait de critères, le taux d’encadrement semblerait bien plus significatif, de même que les moyens financiers dont l’institution dispose, les facilités d’hébergement et de transport, l’accessibilité pour les personnes à mobilité réduite, les installations sportives gratuites ou peu coûteuses, le soutien pédagogique mis à disposition de l’étudiant, la qualité alimentaire des restaurants universitaires, la disponibilité de salles d’étude et d’équipement informatique, etc. (tout cela étant évidemment corrélé directement aux moyens financiers). Voilà une série de critères sur lesquels tout le monde s’accordera quant à leur contribution positive à l’évaluation. La difficulté surgit lorsqu’il s’agit d’affecter ces critères d’un facteur de pondération. L’encadrement est-il plus important que la disponibilité d’activités sportives? Ou est-ce l’inverse?
Admettons qu’on arrive à s’accorder là-dessus. Que dire de l’évaluation de l’enseignement? Ou de la recherche? Comment en choisir les critères? Comment déterminer le niveau? Qui le fait, et sur quelle base? Les enquêteurs de l’ARWU ne consultent personne dans les universités*, contrairement aux autres opérateurs comme QS ou THE qui établissent un dialogue. Ils obtiennent leurs informations auprès d’organismes tels que: « National Ministry of Education, National Bureau of Statistics, National Association of Universities and Colleges, National Rector’s Conference ».
On ne peut, dans ce cas, que fonctionner sur base de la réputation, et de l’oui-dire. Le classement devient alors totalement subjectif, lié au niveau d’introduction de l’université dans le cénacle des évaluateurs et l’efficacité de son lobbying.
De nombreuses critiques.
Je ne suis évidemment pas le seul à dénoncer les travers méthodologiques des classements en général et de l’ARWU en particulier. L’ULB comme l’UCL se sont clairement exprimées. La revue Nature elle-même, pourtant prise en référence par l’ARWU, disait en 2007: « Experts argue that [the rankings] are based on dubious methodology and spurious data, yet they have huge influence. All current university rankings are flawed to some extent; most, fundamentally », Ioannidis et al. en 2007, Billaut, Bouyssou & Vincke en 2009 ou Samarasekera & Amrhein en 2010 en ont critiqué les multiples défauts. De son côté, l’Union Européenne s’est prononcée contre le biais anglophone et a annoncé en 2010 l’élaboration, sous son égide, d’une analyse critère par critère: U-Multirank.
4. Un classement, pour quoi faire?
La contestation argumentée du bien-fondé des classements en premier lieu, de la méthodologie appliquée ensuite, devrait avoir eu raison de leur existence et de leur validité, donc de leur intérêt. On constate que les classements sont utilisés pour des raisons diverses, pas nécessairement celles pour lesquelles ils ont été développés au départ. Cela va du choix des relations internationales et de la sélection de partenaires, jusqu’au choix d’une institution pour y faire ses études. En cela, le classement de l’ARWU est très mal adapté.
Mais ce n’est pas tout, un autre élément intervient, c’est l’interprétation qu’on leur donne. La presse présente généralement les choses de façon trop simple et il faut la comprendre: on lui sert un classement pré-mâché en lui laissant penser qu’il s’agit d’un travail scientifique rigoureux, objectif et incontestable (surtout s’il provient d’une université). C’est pourquoi le démontage qui précède est nécessaire.
Le très grand défaut d’un classement est qu’il laisse croire que le 50ème est ‘meilleur’ que le 51ème, ce qui est tout-à-fait contestable.
Dans le cas de l’ARWU 2013, le classement par blocs de 100 au delà de la 100ème place laisse penser qu’il existe des ex æquo. La manchette du Soir vendredi était éclairante à cet égard: « L’ULB désormais ex æquo avec l’UCL« . La journaliste les a vues toutes deux à la 101ème place, donc ex æquo entre elles et avec la KUL, confusion qu’on retrouve dans la video du Soir. En fait, personne ne sait si l’une n’est pas 101ème et l’autre 200ème…! Interprétation extrême, mais possible. De même, personne ne peut savoir si ce qui est considéré comme une stagnation de l’ULg en 201ème position n’est pas un progrès de la 300ème à la 201ème, ou peut-être l’inverse, une chute au sein du ‘peloton’ 201-300.
En fait, et toujours si on valide l’idée-même de classement, le fait de procéder par ‘paquets’ de 100 est, en soi, une assez bonne idée qui sera d’ailleurs, sous une autre forme, reprise par l’opérateur privé QS dans sa nouvelle formule annoncée: « QS Star« . Celle-ci accordera de 1 à 5 étoiles aux universités, une initiative intéressante, mais évidemment affublée des travers tant de principe que méthodologiques qui affectent les autres classements désormais ‘traditionnels’. Les ‘paquets’ permettent de neutraliser la tentation de donner une signification à des écarts infimes, bien plus ténus que ce que permet la méthode utilisée. Malheureusement, cet effet ne disparaît pas et est, au contraire, plus marqué aux limites entre les ‘paquets’. L’écart entre le 201ème et le 301ème n’est peut-être que de 1.
Le classement par pays.
Par ailleurs, prendre un vaste classement international de 500 universités et en extraire les belges pour en faire un ‘classement belge’ est tentant, mais méthodologiquement très discutable.
Un classement plus ciblé est aussi proposé par discipline. L’écueil de la diversité des matières est estompé dans ce cas, mais le reste des critiques continue à s’appliquer.
Des interprétations elliptiques.
Les conclusions des classements — parfois expéditives ou même erronées — que tire la presse internationale aggravent encore la situation. Elles donnent du crédit à la démarche et poussent les universités à réagir. On peut considérer que c’est une bonne chose et que cela sort les universités d’une autosatisfaction tranquille dans laquelle on les accuse parfois de se complaire. Personnellement, je suis en faveur des processus d’évaluation et il me semble normal que les universités s’y soumettent. Elles ne doivent cependant pas tomber dans le piège du prêt-à-penser et tenter, pour grimper dans les classements, d’améliorer des critères qui ne correspondent pas aux valeurs qu’elles se sont données. Le risque d’uniformisation selon les standards de valeur américains est évident et nous menace directement.
Un non-événement
Si l’on examine les dix derniers résultats du classement ERWU (2004-2013), on constate une grande stabilité:
• l’ULg a toujours été classée entre 201 et 300;
• l’UCL a toujours été classée entre 101 et 150;
• l’ULB a toujours été classée entre 101 et 150, sauf en 2012 (150-200);
• la KUL a toujours été classée entre 101 et 150;
• l’UGent a toujours été classée entre 101 et 150, sauf en 2004 (100è) et depuis 2010 (90è, 89è, 89è, 85è);
• l’UA a toujours été classée entre 201 et 300;
• la VUB a toujours été classée entre 301 et 400, sauf en 2005 et 2010-12 (401-500).
Par conséquent, hormis la croissance de l’UGent, les fluctuations de la VUB et un petit écart de l’ULB l’an dernier, en dix ans, rien de nouveau sous le soleil de Shanghai…!
5. Conclusion
Chaque institution doit se définir, en connaissance de cause, en vertu de ses points forts mais aussi des points faibles qu’elle doit déterminer objectivement. Elle doit se définir en fonction des caractéristiques qu’elle possède et celles qu’elle voudrait acquérir ou améliorer. Elle doit communiquer sur ces objectifs et éviter de laisser faire ce travail par un organisme extérieur insensible à la diversité culturelle qui reste essentielle dans le monde universitaire.
mer 7 août 2013
The July 2013 Web Ranking of Repositories by Webometrics is out.
As opposed to the now ‘classical’ rankings of Universities, Webometrics is ranking bibliographic repositories, whether institutional or not, based on objective and factual criteria. Hence, it provides a precise and useful rendering of how repositories are functioning.
ORBi (Open Repository and Bibliography), the Université de Liège (ULg) institutional repository, ranks 47th worldwide (out of 1.650, all categories) and has become Belgium’s first. It is 34th in size, 115th for visibility and 68th for the number of full texts.
Belgian rankings :
1) all categories, out of 1.650 :
- ORBi (ULg) : 47th, 20th European.
- LIRIAS (KULeuven) : 50th, 22nd European.
- UGIA (UGent) : 69th, 32nd European.
- DIAL (Académie Louvain: UCL, FUNDP, FUSL) : 716th, 329th European.
- DIFUSION (Académie Wallonie-Bruxelles: ULB, UMons) : 803rd, 372nd European.
2) institutional, out of 1.563 :
- ORBi (ULg) : 33rd.
- LIRIAS (KULeuven) : 37th.
- UGIA (UGent) : 52nd.
- DIAL (Académie Louvain: UCL, FUNDP, FUSL) : 656th.
- DIFUSION (Académie Wallonie-Bruxelles: ULB, UMons) : 714th.
One may wonder why there is such a gap between the repository ranking of ULg, KUL or UGent on one side and that of the other. The most likely explanation is the strength of the mandate.
Imposing firmly to University members to deposit their manuscripts in the repository of their Institution, whether in open or in restricted access, appears to be considerably more efficient than leaving a choice and simply encouraging the deposits. It is not a surprise, but the figures make the point.
As soon as an Institution takes the decision to build a repository, it is nonsense if all the scientific production of its members is not in it. Mandating it strongly is legitimate for the University which need to have a full inventory of its production. The University needs it and will take advantage of it, but the researchers as well will benefit from a larger and faster readership for their cherished work.
mer 7 août 2013
Le classement de juillet 2013 de Webometrics est sorti.
Contrairement aux classements d’universités (Rankings), Webometrics classe les dépôts (institutionnels ou non) en fonction de critères parfaitement objectifs et rend donc une image précise du fonctionnement relatif (et donc de l’utilité relative) des dépôts bibliographiques scientifiques.
ORBi, le dépôt institutionnel de l’ULg, se classe au 47ème rang mondial sur 1.650 répertoires de toutes catégories et devient le premier répertoire belge. Il est 34ème en taille, 115ème en visibilité, 68ème pour le nombre de textes intégraux.
Classement mondial des répertoires :
1) de toutes catégories, sur un total de 1.650 :
- ORBi (ULg) : 47ème, 20ème européen.
- LIRIAS (KULeuven) : 50ème, 22ème européen.
- UGIA (UGent) : 69ème, 32ème européen.
- DIAL (Académie Louvain: UCL, FUNDP, FUSL) : 716ème, 329ème européen.
- DIFUSION (Académie Wallonie-Bruxelles: ULB, UMons) : 803ème, 372ème européen.
2) institutionnels, sur un total de 1.563 :
- ORBi (ULg) : 33ème.
- LIRIAS (KULeuven) : 37ème.
- UGIA (UGent) : 52ème.
- DIAL (Académie Louvain: UCL, FUNDP, FUSL) : 656ème.
- DIFUSION (Académie Wallonie-Bruxelles: ULB, UMons) : 714ème.
On peut se demander pourquoi il existe un écart si important entre le classement de l’ULg, la KUL ou l’UGent et celui des académies Louvain ou Wallonie-Bruxelles. L’explication la plus plausible est le type de »mandat » appliqué. Imposer fermement le dépôt des publications scientifiques (qu’elles soient en accès ouvert ou non, peu importe) dans le répertoire institutionnel s’avère considérablement plus efficace pour l’université qui applique ce principe que pour celles qui laissent le choix aux auteurs et se contentent d’encourager le dépôt. Ce n’est évidemment pas une surprise, mais les chiffres sont là pour le démontrer aux incrédules.
Dès le moment où une institution décide de constituer un répertoire, il est inconcevable que l’ensemble des productions de ses chercheurs n’y soient pas obligatoirement déposé. L’université a tout à y gagner, mais surtout les chercheurs y trouvent rapidement la diffusion qu’ils sont en droit d’espérer pour leur travail.
lun 15 juil 2013
Ce matin, dans le Soir (p.12), on trouve une carte blanche de Philippe Busquin, ancien Commissaire européen à la Recherche et de Philippe Maystadt, ancien Ministre de la Politique scientifique, avec le titre: « M. Nollet, nous ne comprenons pas votre obstination ».
Ces deux personnalités volent ainsi à la recousse du Conseil d’administration du FRS-FNRS qui avait manifesté publiquement son inquiétude, des Prix Francqui qui ont également publié une carte blanche le 11 juillet dernier ainsi que des chercheurs qui ont émis un communiqué soutenu par 3.200 signatures.
MM. Busquin et Maystadt, tout en appréciant divers aspects du décret et en particulier la pérennisation de la subvention du FNRS par la Communauté française et la Région wallonne, demandent au ministre de corriger son tir et d’abroger la mention de l’impact « sociétal » de la recherche en tant que critère de sélection. Ils reconnaissent, comme nous tous, la nécessité pour le chercheur de se préoccuper des conséquences que pourrait avoir sa recherche sur l’évolution de la société, et en particulier des conséquences néfastes. Mais la façon dont le projet de décret est libellé laisse planer un doute qui fait bondir tous ceux qui considèrent la recherche comme une valeur essentielle de notre société ainsi que tous ceux qui en ont fait un métier et pour qui c’est une passion.
Le futur décret prévoit, en effet, que « La sélection des projets à financer est effectuée sur la base du classement réalisé par des commissions scientifiques, lesquelles évaluent notamment les qualités du candidat (le parcours académique, l’expérience professionnelle et les publications), les qualités du projet (l’originalité, la faisabilité, la méthodologie et les impacts sociaux potentiels de la recherche) et l’environnement de recherche. »
Formulé de la sorte, il est évident pour tout chercheur en science fondamentale, quelle qu’elle soit, que cette condition préalable est inacceptable. Tout d’abord parce que, dans l’absolu, elle bride la recherche de base mais aussi parce qu’elle oblige le chercheur, dans beaucoup de cas, à inventer une justification utilitaire à son projet, un exercice inutile et pernicieux.
Par contre, si la volonté du ministre, comme je crois l’avoir perçue lors de nos discussions sur le sujet, est d’amener le chercheur à se poser des questions sur l’impact potentiel de ses recherches et qu’il puisse faire part de sa réflexion, le cas échéant, lors de ses rapports périodiques, la préoccupation devient assez normale et de bon sens. Une simple adaptation du texte permettrait alors de lever l’ambiguïté.
Il n’en reste pas moins vrai que, s’il est normal et nécessaire que le pouvoir politique vérifie l’usage qui est fait des moyens qu’il accorde, il est impératif, dans le domaine de la Recherche, que les conditions d’octroi restent la prérogative des commissions d’experts et du Conseil d’administration du Fonds.
sam 13 juil 2013
Ce 3 juillet 2013, pour la première fois, un test d’orientation en médecine a été mis en place dans les cinq universités de la Communauté française qui organisent des études en médecine.
Le test était obligatoire mais non contraignant. Autrement dit, il faut l’avoir présenté pour pouvoir s’inscrire, mais il ne faut pas l’avoir réussi.
On comprendra donc aisément qu’il s’agit bien d’un test que le futur étudiant peut effectuer pour vérifier ses connaissances préalables et sa capacité d’en faire usage. Il ne s’agit ainsi nullement d’un examen et encore moins d’un concours, comme cela se pratique à l’entrée en médecine dans la plupart des autres pays. L’enjeu est donc bien et seulement l’inscription en première année de médecine pour laquelle avoir présenté le test est obligatoire. Un deuxième test sera organisé le 2 septembre (inscriptions jusqu’au 23 août à 23h59) pour ceux qui n’ont pas présenté le premier. Il sera aussi immensément utile pour ceux qui ont échoué lors du premier et qui auront consacré une partie au moins de leur été à tenter de se mettre à niveau. Pour ceux-là, le test de septembre sera très informatif quant à leur capacité de progresser.
1065 candidats se sont inscrits et 92% d’entre eux sont effectivement venus. Dans chacune des universités où le test était pratiqué, on a pu constater un réel engagement des candidats qui ont pris cela très sérieusement et avec application. Les « touristes » dont certains annonçaient déjà la présence insouciante ne se sont pas montrés.
Certes, un millier de candidats représente assez peu par rapport au nombre total d’inscrits en 1ère médecine les années précédentes. On doit s’attendre à un afflux plus important au test de septembre, à moins qu’on ne constate un effet dissuasif. Ce n’était pas l’intention, mais si c’est le cas, on pourra se rassurer en mesurant ainsi le faible degré de motivation de ceux qui auront renoncé face à un test sans réelle conséquence.
Le taux global de réussite (>10/20) est de 21%. On ne manquera sûrement pas de crier à l’hécatombe mais il faut savoir que ce taux correspond au taux de réussite des examens réalisés à la fin du premier quadrimestre de 1ère médecine.
Contrairement à ce que d’aucuns prédisaient, la maîtrise du français n’est pas mauvaise (14,6/20 en moyenne) dans cette première cohorte. L’anglais laisse plus à désirer (7,7/20) et, tout particulièrement, la physique s’avère catastrophique (3,9/20). Moins gravissime mais très insuffisant quand même, en moyenne, la biologie (6,6/20). la chimie est à 8,5, les mathématiques à 8,7, ce qui amène la moyenne générale du test à 7,8/20.
C’est donc vers la physique et la biologie qu’il faut se tourner en premier lieu pour réduire les lacunes et combler l’immense fossé entre secondaire et supérieur.
Chaque candidat(e) ayant présenté le test a reçu par mail le détail des points qu’il (elle) a obtenus.
Les résultats du test pourront, dans un an, être comparés aux résultats du Bac1, ce qui apportera des éléments utiles pour l’ajustement du test lui-même et instructifs quant à sa valeur prédictive.
L’attitude des candidats, certes observée superficiellement, laisse penser qu’ils auront à cœur de l’utiliser comme un outil pédagogique de plus à leur disposition. C’est dans cette optique que, sous l’égide du CIUF, de nombreuses personnes se sont fortement impliquées dans la mise sur pied de ce test, que ce soit pour assurer sa validité et sa « relevance », son traitement informatique, son unicité pour l’ensemble des institutions, etc. Une belle et considérable performance dont il fait féliciter tous les acteurs et un effort général à ajouter aux très nombreux autres consentis en faveur de la lutte contre l’échec.
Renseignements : http://www.facmed.ulg.ac.be/cms/c_338212/fr/le-test-d-orientation
mar 9 juil 2013
C’est avec joie que nous apprenons que le Gouvernement fédéral, lors de son bouclage budgétaire final, a finalement décidé d’octroyer à la Coopération Universitaire au Développement (CUD) le financement qu’il avait gardé en suspens.
Nos interlocuteurs au plus haut niveau s’étaient montrés réservés, voire pessimistes, quant à cette éventualité d’octroyer aux universités le tiers manquant, ce qui avait amené la DGD à suspendre les bourses accordées aux ressortissants des pays du Sud (pour pouvoir suivre les cours internationaux spécialisés) et jeté l’émoi auprès des acteurs de la coopération.
Bonne nouvelle donc, et merci aux autorités fédérales pour cette sage décision.
dim 23 juin 2013
Comme on pouvait le craindre depuis quelques mois, le Gouvernement fédéral a décidé de n’allouer à la Coopération Universitaire au Développement que deux tiers de l’allocation qui lui était due. En effet, les montants attendus concernent les dépenses réalisées en 2011 en toute bonne foi sur base de l’engagement gouvernemental.
Dans ce cadre, nous avons travaillé sur plusieurs scénarios pour déterminer l’affectation la plus adéquate et la plus efficace des 67% du budget sur les différents programmes gérés par le CIUF-CUD. Chacun de ces différents scénarios prévoyait la mise en œuvre d’une cohorte de boursiers 2013-2014 dans le cadre des cours internationaux.
Malheureusement, dans ces circonstances budgétaires inquiétantes, la DGD a décidé de ne pas autoriser, au sein des 67% de budget alloué, l’attribution de bourses de cours internationaux 2013-2014 car cela entraînerait de facto des dépenses sur 2014.
Les candidats sélectionnés et de réserve ont été immédiatement avertis de l’annulation du programme de bourses 2013-2014.
On comprendra combien cette décision est d’un effet désastreux pour nos relations avec les universités avec lesquelles nos institutions coopèrent activement, parfois depuis des décennies…
Les universités sont ainsi placées devant le fait accompli. Sans l’aide de ces bourses, elles ne pourront accueillir les étudiants qui en auraient bénéficié, mais en outre, comme ceux-ci sont largement majoritaires dans ces programmes, nous devons déterminer dans l’urgence ceux qui ne seront pas organisés dès l’année académique prochaine. Un désastre.
Et comme rappelé plus haut, la réduction d’un tiers de la subvention fédérale promise à la coopération universitaire au développement est une décision unilatérale qui prive les universités d’un tiers des investissements financiers qu’elles ont déjà réglé il y a deux ans dans ce cadre, en totale confiance vis-à-vis de la garantie du gouvernement fédéral.
Que celui-ci décide de ne plus subventionner la coopération universitaire au prétexte que ce qui est universitaire relève des Communautés et qu’il s’agit donc d’une compétence qu’il « usurperait » est une chose. Et ça se discute car ce ne sont pas de simples programmes universitaires mais il s’agit une participation des universités à l’effort national de coopération: rien de communautaire là-dedans. Qu’il refuse d’acquitter des dépenses que nous avons engagées avec son accord et avec l’assurance d’un remboursement en est une autre, parfaitement malhonnête.
lun 13 mai 2013
Revenons sur l’affaire du déménagement du FNRS pour en préciser quelque peu les tenants et les aboutissants.
1. Que s’est-il passé ?
Ça ressemblait à un poisson d’avril… un 3 mai . Le même poisson dans chaque journal: dans L’Echo, dans Le Soir, la RTBF, la DH, etc. Et localement, on s’empressait assez naturellement de se réjouir de l’aubaine, dans L’Avenir (édition du Hainaut) ou Skyscraper City, sans bien savoir ce que ça allait réellement représenter.
D’autant moins que les personnalités impliquées affirmaient que l’idée consistait à miser sur l’enseignement pour relancer Charleroi. Outre le fait que le FNRS n’a qu’un lien ténu avec l’enseignement; ceci ne pouvait qu’entretenir la confusion, et celle-ci apparaît dans les commentaires de lecteurs: « les chercheurs vont venir chercher à Charleroi ». Beaucoup de gens ne savent effectivement pas que le Fonds n’est pas un centre de recherche mais qu’il subventionne des chercheurs qui travaillent dans les universités et des centres de recherche. L’installation du FNRS à Charleroi n’impliquerait strictement rien en matière de développement local, si ce n’est que le personnel (environ 70 personnes) viendrait y travailler et que les nombreux experts étrangers membres des commissions scientifiques y viendraient une journée deux fois par an. On ne peut vraiment pas dire que ce déménagement aurait beaucoup d’effet sur l’économie locale ou l’emploi, en dehors d’un effet symbolique, bien sûr.
Ensuite, la polémique ne tarde pas à se manifester. Dans La Libre de mardi d’abord, puis dans un billet diffusé ce jeudi 9 par la RTBF qui revient sur le sujet et laisse entendre que le Fonds aura bien du mal à ne pas plier, face au principal bailleur de fonds de l’institution. Certes, mais il faut aussi considérer qu’en dehors de la Fédération et de la Région, un bon tiers des moyens financiers proviennent d’autres sources qu’il convient également de ne pas heurter par un déménagement qui pourrait être mal interprété: 24% proviennent de l’Etat fédéral, 5,1% du TéléVie et 5% de la Loterie Nationale (chiffres 2012). Par ailleurs, le patrimoine de la fondation, largement immobilisé, comprend la moitié du bâtiment actuel de la rue d’Egmont (l’autre moitié appartient au FWO) ainsi que des dons et legs en nature. Ces biens dont une partie est valorisable en faveur de la recherche sont du domaine privé et seul le Conseil d’administration du Fonds peut en disposer.
Durant la semaine dernière, les interpellations au Parlement de la FWB se succèdent et Alain Berenboom y va de son commentaire acidulé…
Il faut toutefois reconnaitre ce qui doit être reconnu: le Gouvernement a sécurisé et pérennisé l’enveloppe financière de la FWB, elle sera fixée à 103,8 M€ annuels (indexés) dès 2015 et c’est une excellente nouvelle. La Fédération ne pouvant atteindre ce niveau en 2013 et 2014, la Région Wallonne lui permettra d’y arriver grâce à un appoint de 5,3 M€.
Il faudrait faire preuve d’un très mauvais esprit pour insinuer que le déménagement serait la contre-partie de cet appoint, évidemment.
2. Pourquoi cette réaction vive de la part du C.A., du personnel du siège et de nombreux membres de la communauté scientifique et académique francophone ?
a) Le fait d’apprendre la nouvelle comme un fait acquis et décidé, et par la presse, de surcroît, a certainement été le plus choquant. Pour être complet, il faut signaler que le sujet avait été évoqué en bureau du C.A. du FNRS il y a quelques semaines, sans que ce soit à l’ordre du jour. Seule l’installation d’une « antenne » du FNRS à Charleroi avait été évoquée, nullement un déménagement complet du siège. A l’heure de la communication électronique, comme la grande majorité des membres présents, j’avais réagi défavorablement, tout au moins en l’absence de motivation claire et d’information documentée sur ce dont il pourrait s’agir, les conditions de cette installation, etc. Depuis lors, plus un mot.
Il est certainement bon de rappeler ici à quel point les statuts du FNRS et son autonomie, en particulier, lui ont valu, depuis 85 ans exactement, la fierté du monde de la recherche belge et ont suscité l’envie de nos voisins. Le modèle est en effet quasiment unique en son genre et fait l’admiration de tous. Porter atteinte à cette autonomie aujourd’hui ne peut que déclencher une levée de boucliers, il faut le savoir.
b) quels sont les inconvénients de l’initiative ?
- Tout d’abord, le coût, à examiner attentivement en regard de l’intérêt éventuel de l’opération. Chaque € compte, pour une communauté scientifique peu aisée mais qui arrive néanmoins à se situer très haut sur la scène de la recherche internationale (c’est le « paradoxe belge« ).
- L’éloignement d’un voisinage avec lequel le Fonds et ses employés interagissent au quotidien comme le rappelle le personnel administratif dans sa lettre du 7 mai au C.A.: l’Académie Royale, la Fondation Universitaire, BELSPO, la DGENORS, le WBI, le FWO, les principaux organes de presse, les cabinets ministériels du Fédéral et de la Communauté, la Communauté Europeenne, les agences des Fonds de recherche des autres pays qui ont acquis, elles, – ô ironie – des antennes bruxelloises afin d’être plus proches des lieux de décision européens. Il faut remarquer que les organes en charge de la gestion de la recherche flamande (FWO, IWT et EWI) sont tous à Bruxelles.
- Le bâtiment a été acheté par le Patrimoine du Fonds et lui appartient en copropriété avec le FWO. Il est aujourd’hui amorti. Il ne s’agit donc pas d’un bâtiment de la FWB (il nous est revenu qu’on envisagerait un « échange » de bâtiments pour y mettre la future ARES…). Le quitter impliquerait pour le FNRS de le vendre ou de le mettre en location.
- L’accès moins aisé pour les nombreux experts étrangers qui viennent du monde entier participer aux commissions deux fois par an.
- Le sort des employés (qui aurait dû être pris en considération… Cette omission est incompréhensible). Ceux-ci pensent que « la localisation dans le quartier européen est un atout stratégique majeur pour les contacts avec les centres opérationnels et de décision de tous les niveaux. Déplacer le F.R.S.-FNRS de son lieu d’interaction naturel serait non seulement contreproductif mais hautement préjudiciable à la qualité des relations qu’il doit établir avec ses partenaires. »
- Les chercheurs risquent fort de ne pas comprendre la portée de ce transfert, voire de mal l’interpréter, sur un plan strictement symbolique. Beaucoup se sont déjà manifestés et nous ne pouvons leur donner une explication satisfaisante. A cet égard, on comprendra notre malaise lorsque j’aurai précisé que nous avons tenu le 30 avril, soit 3 jours avant l’annonce fracassante du déménagement du siège, la première réunion très constructive du nouvel organe de concertation et de négociation sociale du Fonds, durant laquelle aucune allusion n’a été faite à ce transfert, et pour cause: nul n’en était averti.
c) Quels en sont les avantages ?
En dehors de l’avantage pour Charleroi et peut-être pour la Region wallonne, en termes de prestige, il est difficile d’en imaginer un seul pour le FNRS, son personnel et son fonctionnement. Personnellement, mais ça n’engage que moi, je ne vois pas.
d) En conclusion
Il me semble donc aujourd’hui que la prudence s’impose et qu’une telle initiative doit être soigneusement pesée par le Conseil d’administration, si toutefois la demande lui en est officiellement communiquée, assortie de toutes les informations nécessaires.
P.S.: Avant que quiconque ne fasse de remarque acerbe ou de plaisanterie sous-régionaliste sur le sujet, je tiens à préciser que j’aurais eu exactement la même réaction s’il s’était agi de déplacer le FNRS vers Liège.