Le décret « Résidents-Non résidents » de la Communauté Française a été finalement publié ce vendredi.
Il abroge tout examen d’entrée en Médecine vétérinaire et contingente les étudiants non résidents à 30 % du nombre total d’étudiants présents au 1er bac cette année écoulée et cette limitation se fera par un tirage au sort…

La question ne concerne pas que les vétérinaires, elle s’adresse aussi aux futurs étudiants en kinésithérapie ainsi qu’à des formations en Hautes Ecoles.

On peut le retourner dans tous les sens, il est difficile d’imaginer qu’il n’y aura pas d’effet de vague et que la population résidente désireuse de faire des études (de vétérinaire en particulier) ne va pas croître de manière incontrôlable. Si l’on ajoute à l’engouement des vocations les déçus des années précédentes — surtout de l’an dernier — qui avaient échoué à l’examen d’entrée, les déçus de Médecine qui ont réussi leur année sans obtenir l’autorisation de passer en deuxième, on imagine le flot…
L’année prochaine, à ce même effet, on devra ajouter les « faux résidents » qui auront pris leurs précautions (on en connaît déjà) et le fait que les 30 % seront calculés sur l’effectif grandement accru de 2006-2007, sans compter la véritable rupture de digue que représenterait un rejet de ces dispositions par la Cour européenne…

Ces périls qui menacent à nouveau la qualité de l’enseignement de la Médecine vétérinaire, après le raz de marée dont on connaît actuellement les effets dans les années terminales (plus de 360 diplômés cette année !), émeuvent terriblement notre Faculté, font l’objet de nombreuses discussions au CReF et entre les 4 recteurs dont les institutions forment de futurs vétérinaires (seule l’ULg dispense le second cycle) et ont suscité, à deux reprises, des débats animés au Conseil d’Administration.

Ce mercredi, connaissant la sortie imminente du décret, le CA a adopté une motion qu’il communique à la Ministre de l’Enseignement supérieur et de la Recherche de la CFB, dans laquelle il fait part de son inquiétude et de son souhait de voir s’établir des mesures de sécurité. L’ULg est prête à collaborer activement par toutes ses compétences à la recherche d’une solution durable et satisfaisante.

« Le Conseil d’administration de l’Université de Liège est préoccupé par les effets potentiels de la mise en œuvre du nouveau décret de la Communauté française de Belgique sur la qualité de la formation des futurs vétérinaires et sur la reconnaissance européenne de leur diplôme.

Le Conseil partage unanimement la position de sa Faculté de Médecine vétérinaire, à savoir que la seule solution susceptible de garantir la qualité de la formation des étudiants consiste en l’instauration, de toute urgence, de modifications légales permettant d’ajuster directement ou indirectement aux capacités de formation clinique le nombre d’étudiants inscrits au 2ème cycle en médecine vétérinaire (compte tenu des contraintes de l’accréditation européenne, cette capacité maximale est actuellement estimée par la Faculté de Médecine vétérinaire à 200 étudiants par année d’étude).

Le Conseil d’administration fait sienne la détermination de la Faculté de Médecine vétérinaire à éviter par tous les moyens légaux que n’apparaisse à nouveau une pléthore étudiante nuisible à la formation des médecins vétérinaires. »

Les inscriptions sont maintenant ouvertes. Chacun retient son souffle…

Les évaluateurs de l’European University Association (EUA) sont revenus à l’ULg, du 25 au 28 juin derniers.

Il s’agit des personnalités suivantes :
- le professeur Luc Weber (Economiste, ancien recteur de l’Université de Genève, président);
- le professeur Lluis Ferrer (Vétérinaire, actuel recteur de l’Université Autonome de Barcelone);
- le professeur Eric Froment (Economiste, ancien président de l’Université de Lyon 2, ancien président de l’EUA);
- le docteur Andrée Sursock (Anthropologue, secrétaire exécutive de l’EUA, Secrétaire).

Après un premier passage en février, ils ont travaillé sur les dossiers que nous leur avions communiqués et sur les compléments d’information qu’ils nous ont demandés alors et depuis lors. Ils ont poursuivi leurs investigations par un nombre important d’entrevues durant ces trois jours. Enfin, ils ont rendu leur avis oral, à la salle académique, en face des Autorités universitaires, des doyens, des conseillers, des membres du Conseil d’Administration, des présidents de départements, des membres du comité d’autoévaluation EvalULg, des directeurs d’administration ainsi que de toutes les autres personnes qui ont été consultées à un moment ou à un autre.

Le rapport oral est très encourageant. Sans grande surprise, il entérine la politique suivie par l’ULg depuis un an et nous encourage à continuer dans le même sens. Il réclame quelques précisions et clarifications en matière d’organisation de la gouvernance et fait remarquer que ma tendance à consulter avant de décider à propos d’un certain nombre de matières stratégiques (on ne parle pas de décisions au quotidien, ici) ne peut avoir qu’un temps et doit faire place, une fois défini le Projet de l’ULg, à une mise en application énergique des grandes tendances qui se dégageront.

L’ouverture à l’international, la maîtrise des langues, les accords interuniversitaires au sein de la CFWB doivent être poursuivis. Le questionnement sur les rôles relatifs des Facultés, des Départements, des Conseils d’études doit être poursuivi également et rapidement mené à terme.

Le rapport écrit suivra, nous devrions l’obtenir fin-août et il sera rendu public, comme annoncé.

« L’Ulg a présenté son examen de passage et elle l’a réussi ». J’entends déjà les commentaires. Mais il n’en est rien. Il ne s’agit pas d’un examen de passage ni d’aptitude. Il s’agit d’une évaluation externe, un des nombreux éléments que l’Université doit accumuler dans le regard qu’elle porte sur elle-même. Le rapport final sera étudié avec soin, comme l’ensemble des informations récoltées tout au long de cette année : la visite dans les Facultés, l’autoévaluation, l’enquête qui va circuler dans les prochains jours, les tables rondes thématiques.

C’est cet ensemble d’informations qui va nous amener à définir ou probablement à valider une stratégie et de la rendre publique. Mais ceci, c’est pour l’automne 2006.

Un nouveau commentaire est arrivé pour l’article “Nancy-Université” du 18 juin dernier.

Le nouveau décret « résidents/non-résidents » de la CFWB est sorti.
Il vise à résoudre le problème de la pléthore d’étudiants étrangers dans certaines de nos filières d’études de l’Enseignement supérieur universitaire et non universitaire.

Une des filières les plus touchées par cette pléthore est la Médecine vétérinaire, où l’on sait que les étudiants français affluent en nombres tels qu’il est devenu quasi-impossible d’assurer la qualité des formations pratiques nécessaires aux étudiants des trois années supérieures. Cet état de fait faisait courir le risque aux vétérinaires de l’ULg de se voir privés de l’accréditation européenne dans ce domaine, référence importante pour cette formation.

Devant cette menace à notre enseignement réputé dans ce domaine, un premier décret a, il y a quelques années, créé un examen d’entrée assorti d’un numerus clausus. L’effet fut certes de ramener les étudiants à un nombre raisonnable, mais introduisit un biais considérable en faveur des étudiants français, globalement mieux préparés en raison de la qualité de leur formation dans l’enseignement secondaire et de l’année préparatoire que la majorité d’entre eux a généralement suivie en France.

Numériquement, le problème était résolu, mais il avait pour autre résultat que la Communauté française de Belgique subventionnait quasi-exclusivement des étudiants français et que sa faculté unique de Médecine vétérinaire ne formait quasi plus de belges ! Le souci de voir à l’avenir notre Communauté manquer sévèrement de vétérinaires se profilait très clairement à l’horizon, outre l’aberration de voir se fermer aux jeunes belges les portes d’une formation qui suscite de nombreuses vocations.

L’Europe ne permet pas de discrimination sur base de la nationalité. En limitant à 30 % l’accès à certaines filières, dont la Médecine vétérinaire, pour les étudiants non-résidents, le gouvernement a trouvé un moyen de freiner ce déséquilibre outrancier, tout en libérant complètement l’accès pour les résidents.

On peut discuter à perte de vue sur l’opportunité d’une telle mesure et sur certains de ses effets collatéraux (frein à la mobilité étudiante à une époque où « Bologne » l’encourage ouvertement, sélection des 30 % de non-résidents par tirage au sort, entre autres) mais c’est là un autre débat. La réaction, cette semaine, de nos collègues vétérinaires est, elle, liée à l’ouverture sans restriction des études à tous les résidents. Ils y voient l’effondrement d’un barrage qui risque de créer une nouvelle vague de pléthore, belge cette fois, à laquelle ils ne souhaitent plus avoir à faire face, alors qu’ils commençaient seulement à apercevoir le bout du tunnel.

Leur inquiétude est légitime, mais peut-être pas fondée, qui sait ? Le risque aujourd’hui de voir venir vers ces études une quantité de résidents supérieure à celle qui prévalait avant la pléthore française n’est pas démontré et l’alarme est peut-être inutile. Il semble sage d’attendre les inscriptions et d’en tirer les leçons alors.

Mais cet attentisme inquiète nos collègues et ils proposent la mise en place d’un concours qui sélectionnerait un nombre précis d’étudiants après la première année, réétablissant ainsi un numerus clausus, non plus préalablement à l’entrée aux études mais après une année. Cette mesure semble en effet prudente et mérite qu’on s’y intéresse.

Dans la perspective d’une première année expérimentale sans limitation et de l’absence de filtre en fin de première, nos collègues vétérinaires ont lancé lundi dernier un communiqué de presse annonçant qu’ils se verraient obligés de limiter à 200 le nombre d’étudiants pouvant obtenir l’accès aux cliniques de quatrième année.

Répercuté par Le Soir sous une forme très simplifiée qui en tronquait évidemment les nuances et n’en retenait que l’élément-choc, l’appel semblait émaner officiellement de l’ULg.

Ceci m’amenait donc à réagir en précisant que la position de l’ULg ne pouvait être de proposer une solution illégale et qu’à aucun moment, son Conseil d’Administration n’avait évoqué une telle limitation.

Ces entrefilets laissaient apparaître une soi-disant polémique entre les vétérinaires et moi, alors que le débat de fond était tout autre.

Bien évidemment, l’ULg soutiendra ses vétérinaires et j’ai demandé à être reçu dans les meilleurs délais par le Conseil de Faculté pour exposer mon point de vue, les mesures (légales) que j’envisage de prendre en fonction des événements et les pistes à explorer par la suite.

L’aide apportée par l’ULg aux vétérinaires spécifiquement pour faire face à la pléthore se monte déjà à plus de 12 millions d’Euro en cinq ans, on le sait trop peu. Mais il est vrai qu’un soutien financier, qui se traduit largement en personnel d’appui, ne suffit pas. En particulier, il ne résout en rien le simple problème du nombre de « patients » et du nombre de cas cliniques nécessaires pour la formation d’un tel nombre d’étudiants.

Et si le problème attendu se révèle vrai, je soutiendrai la proposition de nos collègues de mettre en place un dispositif de sélection après la première année, comme on l’a fait en Médecine récemment.

Je rappelle que la Médecine vétérinaire n’est pas seulement une spécificité de l’ULg en CFWB mais qu’elle en est un fleuron et qu’à ce titre, elle mérite toutes nos attentions, celles de l’ULg mais également celles de toute la Communauté.

Le 19 avril dernier, j’ai eu l’occasion, avec une petite délégation de responsables administratifs de l’ULg, de rendre visite aux universités de Nancy à l’invitation des trois présidents: Jean-Pierre Finance (Université Henri Poincaré), François Le Poultier (Université Nancy 2) et Louis Schuffenecker (Institut National Polytechnique de Lorraine).
Ces trois institutions viennent de s’associer en une fédération appelée « Nancy-Université »
(http://www.uhp-nancy.fr/universite/index.php?id_rub=1&id_t=1&id_st=132&inc=s/). Je salue cette initiative qui vise à donner une cohérence et une meilleure visibilité au paysage universitaire nancéen. Le principe qui gouverne ce regroupement tout en préservant les spécificités de chacune des institutions fédérées est en ligne parfaite avec ma conception de ce que devrait devenir le paysage universitaire francophone belge.
Je suis en effet convaincu qu’une structure fédérative constituera un jour, bientôt j’espère, la véritable solution à une bonne partie des soucis que rencontrent nos universités.

Par ailleurs, je sais gré à mes collègues présidents d’avoir voulu, au sortir de cette période complexe de l’établissement de leur Fédération, resserrer les liens avec nous. Je parle de resserrer les liens car ceux-ci existent bien, au travers de très nombreuses collaborations de recherche. Là également, il s’agit d’un positionnement sur le plan eurégional qui pourrait prendre une signification importante dans les mois et années qui viennent.

Lors de la visite de retour que nous ont rendu les trois présidents ce 9 juin dernier, il est apparu clairement que nous allons étoffer nos relations, tant au plan de la recherche en facilitant les échanges de chercheurs, qu’au plan de l’enseignement en analysant les possibilités de mise sur pied de masters communs, sanctionnés par des diplômes conjoints, tels que le nouveau décret de la CFWB le permet depuis mardi dernier. Nous examinerons également les possibilités de créer des masters complémentaires ainsi que des formations de troisième cycle voire même des écoles doctorales communes en jouant, là aussi, l’atout de la « codiplômation », comme disent nos amis québécois.
Il nous reste à lancer les groupes de travails adéquats, ce qui sera fait dans les prochaines semaines.

Attendons-nous donc à assister à une recomposition de l’enseignement universitaire dans lequel nous évoluons, avec nos voisins belges et frontaliers.

Dans le cadre de son engagement dans la politique d’ouverture du Libre Accès, notre université a pris ou s’apprête à prendre, dans les semaines qui viennent, une série de décisions importantes :

1. La mise en ligne sur Internet des thèses de doctorat défendues à l’ULg pour les rendre librement consultables. Cette initiative s’harmonisera avec les autres universités de la Communauté française de Belgique (BICTEL/e).

2. Le dépôt, sous forme électronique, de publications scientifiques des membres de l’ULg afin d’en permettre la diffusion libre par Internet. A l’heure actuelle, plusieurs centaines de documents scientifiques de membres de l’ULg sont déjà repris sur cet outil qui devrait être mis en production début 2007. Bien évidemment, certaines contraintes en matière de droits d’auteurs ou de renoncement à la propriété intellectuelle persistent, mais ce grand mouvement mondial auquel nous adhérons pleinement devrait bientôt envoyer les anomalies du passé au rayon des mauvais souvenirs.

3. La création d’un portail de publication de périodiques scientifiques de l’ULg qui permettra de mettre en ligne, en texte intégral et librement accessible, certains des périodiques édités en son sein (« PoPuPS ULg »).

Je tiens à féliciter notre Réseau des Bibliothèques pour ces initiatives parfaitement en phase avec notre combat pour l’accès libre à la documentation scientifique universelle et qui offrent à ce combat les armes nécessaires.

———————

Commentaire de Jan Haspeslagh, le 3 juin 2006 :

Je suis très content de voir que le support pour l’Open Access en Belgique évolue dans la bonne direction. En effet, ce n’est qu’au moment où les responsables des universités commencent à regarder dans la même direction qu’on peut penser à discuter et organiser les moyens pour aboutir au but essentiel: libre accès à la production scientifique complète de la Belgique. Même si la situation dans notre pays ne favorise pas réellement la coopération entre les régions, je crois que le temps est venu pour les recteurs de se contacter et de s’organiser ensemble. J’espère que l’Open Access en Belgique sera un projet commun des universités et institutions scientifiques flamandes, wallonnes et bruxelloises.

Cordialement,

Jan Haspeslagh
Bibliothécaire
Vlaams Instituut voor de Zee
Flanders Marine Institute
Wandelaarkaai 7
Oostende, Belgium
http://www.vliz.be/
Nos archives libre-accès: http://www.vliz.be/EN/Marine_Library/Library_OMA/

D’autres avis ou liens utiles :

http://newsletters.afnet.fr/LLA/20060522932/1148286012713
http://www.pps.jussieu.fr/~dicosmo/MyOpinions/atom.php?type=co
http://civicaccess.ca/pipermail/civicaccess-discuss_civicaccess.ca/2006-May/000614.html
http://www.domainepublic.net/sommaire.php3
http://openaccess.inist.fr/

Sites généraux d’information sur l’Open Access Initiative et l’Open Archives Initiative :

http://www.soros.org/openaccess/
http://www.biomedcentral.com/openaccess/www/?issue=4
http://www.earlham.edu/~peters/fos/boaifaq.htm
http://www.openarchives.org/
http://www.eprints.org/openaccess/self-faq/

Le saumon est de retour !

Disparu de nos eaux douces depuis 1942, le saumon atlantique est revenu dans la Meuse, mais ce n’est pas un hasard. L’idée a germé en 1983 dans l’esprit d’un spécialiste de l’écologie des poissons à l’ULg, Jean-Claude Philippart. A force de persévérance dans son travail scientifique en collaboration avec des collègues de Namur et à force d’obstination vis-à-vis des pouvoirs publics pour le financement de ses recherches et pour la mise en œuvre de travaux de très grande envergure (remise en état d’ancienne échelles à poissons et création de nouvelles, assainissement des eaux de rivières dans la région, participation active des autorités régionales, provinciales et communales ainsi que des entreprises), il a mené à bien une entreprise considérable et incroyablement complexe : le retour du saumon.
Certes, le retour de cette espèce-phare n’est qu’indicatif de la restauration de la qualité de nos eaux, mais il en est aussi la preuve éclatante. Le reste de la faune aquatique, moins délicat, en bénéficie d’autant plus.

Ce matin, nous avons signé avec le Ministre de l’Agriculture, de la Ruralité, de l’Environnement et du Tourisme de la Région Wallonne et les Facultés Universitaires Notre-Dame de la Paix à Namur une convention de recherche qui perpétue la suite des conventions ainsi signées depuis 1987, année européenne de l’Environnement.

Je me plais à saluer ici la persévérance des chercheurs qui ont cru à leur projet et l’ont mené à bien jusqu’à sa réussite. Réussite qui devra maintenant être poursuivie avec le réempoissonnement en saumon des rivières affluentes de la Meuse, grâce aux élevages réalisés dans des salmonicultures telles que celle d’Erezée, une très belle installation où nous avons symboliquement signé la convention. Je salue également la collaboration interuniversitaire dans ce programme et la collaboration fructueuse et bien intégrée avec divers ministères de la RW, dont le MET, pour les infrastructures de rivières.

Un très beau succès collectif. Un bel exemple qui peut frapper, peut-être plus que d’autres, les esprits et aider à montrer combien aujourd’hui, science, technique et gouvernance citoyenne sont intimement liées. Une occasion également de saluer tous les programmes moins visibles pour le grand public, mais tout aussi utiles et qui ne pourraient voir le jour sans la participation des chercheurs universitaires et leur capacité d’intégrer le savoir et le savoir-faire, mais aussi leur remarquable aptitude à convaincre. Celle-ci apporte un très grand crédit à l’inventivité de nos chercheurs, en général.

La semaine dernière, j’ai eu l’occasion de découvrir deux instruments de grande dimension que l’ULg utilise et dans lesquels elle pourrait s’impliquer plus encore.

Le premier est la station scientifique et l’observatoire du Jungfraujoch, dans les Alpes suisses bernoises. Depuis bientôt soixante ans, à l’instigation du professeur Migeotte, visionnaire de l’astronomie, l’Université de Liège y réalise des observations solaires passionnantes. Depuis une vingtaine d’années, le soleil s’y est également transformé en source lumineuse permettant d’observer la composition des couches élevées de l’atmosphère: la haute troposphère au dessus de 4.000 m et la stratosphère. Dans ces couches s’accumulent des gaz à effet de serre et des produits de dégradation de substances générées par l’activité humaine dont les effets peuvent s’avérer délétères pour le climat global. Les appareillages et méthodes développés par le GIRPAS (Groupe Infrarouge de Physique Atmosphérique et Solaire) de l’ULg sont en constante évolution et permettent des observations qui sont considérées comme la référence en matière d’observation atmosphérique, ce qui donne aux résultats et à leur évolution inquiétante au cours des deux dernières décennies, un relief tout particulier. Il est clair que ces mesures de plus en plus fines, combinée à des données satellitaires moins précises mais extra-stratosphériques, y compris sur des observations rétrospectives portant sur de nombreuses années de présence constante sur le site, doivent être poursuivies, dans l’intérêt de la planète tout entière et de la vie à sa surface.

Le Jungfraujoch (Col de la Jungfrau) est situé entre les sommets de la Jungfrau et du Mönch dans un massif qui comprend aussi l’Eiger (la légende veut que le ‘moine’ protège la ‘jeune fille’ de l’ ‘ogre’ !). La station y fut créée en 1931 et le FNRS y participe depuis lors. La dernière coupole d’observation fut installée en 1966 avec un télescope de 76 cm. En altitude (3.580 m) et proche d’un glacier, l’observatoire est idéalement situé en atmosphère sèche, sans pollution locale.

L’aide précieuse de la Politique Scientifique Fédérale (ex-Services fédéraux des affaires scientifiques, techniques et culturelles, SSTC) et du Fonds National de la Recherche Scientifique (FNRS) ainsi que de nombreuses collaborations à des programmes belges, européens et internationaux assurent la durabilité de ce programme d’observation. L’ULg, et en particulier son département AGO (Astrophysique-Geophysique-Océanographie), doit réserver à cette activité des moyens humains et matériels dignes de l’intérêt qu’elle y porte, pour autant que l’intérêt académique et scientifique qu’y porte le département se concrétise dans un avenir proche.

http://sunset.astro.ulg.ac.be/girpas/gir4proe.htm


La Jungfrau (à gauche) vue de Wengen. L’observatoire situé au col est masqué par le contrefort montagneux à l’extrême gauche.

Le second instrument est le Synchrotron Européen de Grenoble, grand accélérateur de particules de l’ESRF (European Synchrotron Research Facility) flanqué du réacteur nucléaire de l’ILL (Institut Laue-Langevin), outils de très grande qualité fournissant aux chercheurs de toute l’Europe des flux de neutrons ou de rayons X d’une finesse et d’une intensité considérables. Ceux-ci permettent des observations microscopiques irréalisables sans eux, la recherche d’éléments très dilués, l’analyse médicale d’organes sous doses rayonnement moindres mais qualitativement et quantitativement plus précises ou encore le suivi de réactions chimiques ou biologiques de durée extrêment brève, sans compter les applications déjà connues en physique ou en géologie. C’est ainsi que les neutrons se révèlent extrêmement utiles pour les études de structure de la matière, y compris la matière organique: la cellulose des végétaux, les complexes protéo-lipidiques du sang, les enzymes et leur fonctionnement, les membranes cellulaires, les molécules responsables de la captation lumineuse chez les plantes, les nanoparticules du lait ou les microfibrilles musculaires lors de leur contraction, pour ne citer que celles-là.

L’Ulg est bien présente sur ce site, mais pourrait l’utiliser encore mieux, d’autant que l’accès y est gratuit (la Belgique participe financièrement), voyage et hébergement compris, et la sélection s’opère sur la qualité des projets. Le développement récent dans le domaine des « objets mous » et de la biologie étend encore les domaines d’application de ces faisceaux qui ne demandent qu’à être utilisés au mieux par nos chercheurs, probablement encore trop peu conscients aujourd’hui de l’usage qu’ils peuvent faire de ce mode d’expérimentation.

http://www.esrf.fr
et
http://www.ill.fr


Le site de l’ESRF (anneau) et de l’ILL (dôme) et les infrastructures conjointes entre Isère et Drac, vus de la colline de la Bastille.

L’article précédent « Accès libre » a suscité plusieurs réflexions (voir commentaires de l’article) et j’en remercie les auteurs.
Pour ne pas ajouter à la confusion en répondant à la suite de ces commentaires, je reprends ici les questions posées par certains pour tenter d’y répondre.

François Schreuer relève deux points faibles de mon argumentation :

« Un premier point, que vous n’abordez pas directement, est celui du financement des revues en accès libre. Sans doute des solutions pratiques sont envisageables (subventions publiques, prise en charge directement par les universités) sans trop de difficultés, mais je serais heureux de connaître celle que vous privilégiez. Ce point reste d’ailleurs un des arguments saillants des défenseurs du modèle propriétaire. D’autant qu’il me semble avoir lu à plusieurs reprises que le ‘peer reviewing’ est, dans un certain nombre de cas, rémunéré par les revues. »

En effet, ce problème n’est pas sans intérêt: on ne peut remplacer une solution coûteuse par une solution gratuite !

Il est clair que le principe de l’Open Access (OA) implique le transfert du paiement du lecteur à l’auteur. Et que, vu le nombre de lecteurs par rapport au nombre d’auteurs, on doit s’attendre à un flux financier bien moindre au total. Cependant, il ne faut pas négliger le fait que les lecteurs sont des auteurs, très généralement, et que cet effet est sans doute moins énorme qu’il n’y paraît à première vue.

Les responsables des revues actuellement disponibles en OA ont trouvé la parade en demandant aux auteurs de contribuer au coûts et en offrant aux universités la possibilité de prendre ces frais en charge pour leurs chercheurs, en pratiquant des prix réduits. C’est l’option que je préfère, dans la mesure où le passage à l’OA réduira les coûts de la documentation largement prise en charge aujourd’hui par les universités. Mais que les celles-ci participent ou non, il est simple de prévoir, dans les frais de recherche, des frais de publication. Cette nouvelle pratique doit être rapidement admise et encouragée par les bailleurs de fonds de recherche, au même titre que de l’argent de fonctionnement ou d’équipement. Elle contribuera d’ailleurs, on peut l’espérer, à une certaine responsabilisation du chercheur et à une diminution de la pléthore actuelle d’articles scientifiques inutiles ou redondants. Cette pléthore s’explique d’une part par la spirale infernale du « publish or perish » qui pousse les chercheurs, surtout les jeunes, à tenter de publier n’importe quoi, ce qui submerge les ‘reviewers’ et noie l’information importante, et d’autre part par la voracité de certaines maisons d’édition qui multiplient à l’infini les revues en raison de leur rentabilité démesurée.

Il va de soi que les versions ‘papier’ (pour ceux qui souhaitent encore, et c’est bien compréhensible, feuilleter réellement et non virtuellement les revues, les lire dans leur fauteuil chez eux ou, en tout cas, garder un rapport physique au texte écrit) doivent rester payantes par le lecteur.

Enfin, le ‘peer reviewing’ rémunéré reste une pratique rare et c’est heureux: le désintéressement est un des piliers de l’objectivité en matière de contrôle de qualité. Il n’est donc nullement souhaitable de voir cette pratique se généraliser et les chercheurs eux-mêmes doivent s’en défendre.

« Un second point est celui de l’impact des grandes revues qui ne va pas s’effondrer tout seul, loin s’en faut. Tant au niveau belge (là, des solutions sont sans doute possible à moyen terme si l’on y met une énergie conséquente) qu’au niveau international, la carrière des chercheurs et la réputation des universités dépendent largement des publications dans ces “grandes” revues. Si demain, tous les chercheurs de l’ULg cessent de publier dans ces revues, certes l’ULg remplira sans doute mieux son rôle de service public, contribuera au développement du sud et participera à la promotion d’un modèle alternatif,… mais verra en même temps sa cote internationale baisser. Et tout arbitraire et injuste que cela soit, ça ne sera pas sans conséquences très pratiques et très lourdes. »

Effectivement, c’est là un souci souvent mis en avant par les chercheurs eux-mêmes.
En fait, ce n’est qu’un mauvais moment à passer ! Plusieurs stratégies mutuellement compatibles sont en train de se mettre en place et la victoire est inéluctable. Elle n’est retardée que par un snobisme savamment entretenu qui repose sur des décennies de tradition dans le domaine de la publication scientifique. La difficulté, dans l’être pré-électronique, de mesurer l’impact réel d’un article de recherche sur la communauté scientifique a obligé les évaluateurs à emprunter un raccourci plein d’effets pervers: mesurer l’impact de la revue qui publie l’article (indice d’impact = nombre de fois que la revue est citée/nombre d’articles dans la revue). Cet indice a été inventé au départ pour permettre l’évaluation des revues et constituent toujours un outil utile pour les éditeurs. Etendre cet indice d’impact-là à un article en particulier est forcément fallacieux et ce l’est encore plus d’étendre cette évaluation à celle de l’auteur !
Une meilleure appréciation de l’impact d’un article est d’en mesurer le nombre de citations (élogieuses ou dénigrantes, peu importe, on parle ici d’impact sur la communauté scientifique). Très malaisée au début, et terriblement biaisée, comme les indices d’impact des revues d’ailleurs, par le monde anglo-saxon, cette évaluation des citations s’est vue grandement facilitée ces derniers temps par l’avènement de l’électronique. On voit donc aujourd’hui pourquoi on peut mesurer approximativement, mais de manière plus fiable néanmoins, le nombre de citations d’un article dans la littérature scientifique.
Et l’on voit aussi immédiatement pourquoi les articles publiés en OA sur internet permettent une consultation immédiate du contexte où l’article original est cité. On peut donc aujourd’hui suivre la « carrière » d’un article qu’on a publié et son influence sur la pensée scientifique, au jour le jour.
Juger l’importance de la contribution d’un chercheur est également grandement facilité par ces techniques modernes.

Un phénomène nouveau se dessine. Qu’on aime ou non, les chercheurs aujourd’hui consultent plus volontiers la littérature qui les concerne sur l’internet que dans les bibliothèques. C’est un fait de plus en plus souvent remarqué. (Et je reste, bien sûr, conscient que ce phénomène s’observe surtout dans des domaines qui concernent les sciences dites exactes et les sciences de la vie, encore qu’on commence à me le signaler en sciences humaines également, seules les Lettres étant encore ‘épargnées’). Les articles cités commencent donc à être préférentiellement ceux qui sont publiés en OA et sur le Net. Cet effet ne va faire que progresser, par un phénomène d’auto-amplification simple à comprendre. Et c’est déjà une constatation: plusieurs journaux électroniques et plus particulièrement ceux qui publient en OA apparaissent aujourd’hui dans les tables d’indices d’impact et atteignent déjà des sommets inégalés. Alors, de deux choses l’une: soit les journaux électroniques en OA vont supplanter tout le reste en atteignant des valeurs astronomiques, soit le système de mesure de l’indice d’impact va disparaître, victime de son absurdité. Il a eu son temps et son intérêt, à condition d’être pris avec beaucoup de circonspection, il va devenir aujourd’hui obsolète et ne servira plus qu’à ce pourquoi il a été conçu: la mesure de l’impact des journaux, non des articles qu’ils contiennent et encore moins des auteurs.
Cet effet est spontané, lié à une plus grande facilité qu’ont les chercheurs de se référer à des sources facilement accessibles: la paresse naturelle prévaut toujours ! Mais il peut être également volontairement induit. J’en prends pour exemple la note de Jacques Dumont que j’ai reprise parmi les commentaires de mon article précédent, « Accès Libre »: les chercheurs commencent à réagir en citant préférentiellement les articles publiés en OA, afin d’accélérer délibérément le processus de promotion de ce moyen de communication scientifique largement ouvert.

« Alors, comme vous le dites, bien sûr, un rapport de force est à construire, mais cela suffira-t-il ? Des mesures législatives ne sont-elles pas nécessaires, de façon globale, notamment pour limiter l’inflation démesurée de la propriété intellectuelle, la dérive de modèle du droit d’auteur vers une conception strictement patrimoniale des droits sur les contenus, promouvoir des exceptions pédagogiques et scientifiques, etc. »

Tout-à-fait d’accord, bien que je ne sois pas un grand adepte du « tout légiférer ». Mais on assiste aujourd’hui à un grand éveil à la notion de propriété intellectuelle au sein des universités et l’ULg s’en préoccupe beaucoup. Peut-être est-ce la raison pour laquelle elle est en queue de peloton dans la problématique de la mise sur internet des thèses et mémoires, tant que la sécurité n’est pas assurée en matière de propriété intellectuelle, précisément. Mais il est incontestable que les exceptions pédagogiques et scientifiques doivent prévaloir.

Par ailleurs, dans le même esprit — celui qui consiste pour l’université à (re)gagner son indépendance vis-à-vis des pouvoirs économiques extérieurs –, ne serait-il pas souhaitable d’envisager de migrer l’informatique des universités vers des solutions libres ?

Très juste ! Et c’est bien ce qui est en train de se produire. Nous avançons dans cette voie, avec, bien sûr, la réticence compréhensible de nos chercheurs et de tout notre personnel. Mais il est clair que les logiciels libres font de plus en plus leur chemin dans nos ordinateurs et dans nos serveurs.

—————————————————————————————————————————

Roberto Di Cosmo signale « qu’il ne faut pas sous-estimer l’énorme problème légal qui est constitué par la cession des droits d’auteur pour les publications en cours »

Effectivement, cette cession contrainte par les éditeurs n’existe encore qu’à cause d’une vieille tradition qui remonte à l’époque où les chercheurs ont confié à des professionnels, tout d’abord au sein des sociétés savantes, ensuite aux édteurs privés, la fonction d’éditer, de publier et de vendre leurs articles scientifiques. Le nouveau paradigme de l’OA fait disparaître cette nécessité et la rend même inacceptable dorénavant.

—————————————————————————————————————————

Stevan Harnad, dont je salue au passage le travail considérable et mondialement connu en tant que spécialiste de la documentation, me reproche de faire la part trop belle « au chemin « doré » envers le libre accès (LA) qu’est la publication dans les revues LA. Selon lui, « le chemin le plus rapide et le plus sûr envers le LA à 100% c’est le chemin « vert » — l’autoarchivage par l’auteur, dans son dépôt institutionel — de 100% des articles [2,5 millions par année] publiés dans toutes les revues [24000] (qu’elles soient LA [10%] ou non-LA [90%]). »

Voilà une proposition forte, à laquelle on ne peut qu’adhérer. Pour le moment, il me semble que nous ayions encore des contraintes en termes de droits d’auteurs auxquels nous avons explicitement renoncé, mais si la recommandation A1 de la Commission européenne est d’application, alors nous aurons un nouveau moyen de rendre l’accès à l’ensemble de la production scientifique tout à fait ouvert. C’est évidemment un « forcing » bien nécessaire si on ne veut pas attendre la conversion des 90% des revues qui ne sont pas encore en OA, ce qui pourrait encore prendre des décennies. Ceci demande de la part des universités et centres de recherche, un effort particulier, mais pourquoi pas ?

—————————————————————————————————————————

Simon Daron rompt lui aussi une lance en faveur des logiciels libres et il se demande pourquoi « vous ne parlez pas par exemple des licences “publiques” (open content, creative commons, gpl, …).

Tout simplement parce que je ne puis ici couvrir l’entièreté de la question…!
Je vous reporte pour cela au près des spécialistes ! Mon intention n’était que d’attirer l’attention, en particulier de mon université, sur la problématique du coût des publications et de la voie de l’OA.

—————————————————————————————————————————

Nicolas Pettiaux plaide « pour que ceci soit aussi développé plus largement dans le cadre de l’enseignement, pour développer des contenus libres de qualité (sous licences libres) » et je ne puis qu’être bien d’accord avec lui.

Le paradoxe

L’accès libre à l’information scientifique est l’un des enjeux les plus fondamentaux de la société de l’information telle que la façonnent les progrès de la science et des technologies, ainsi que de la communauté scientifique globale.

Toutefois, aujourd’hui, le monde de la recherche se trouve dans une situation pour le moins paradoxale:
- La plus grande partie de la recherche scientifique de haut niveau est financée par des établissements publics ou philanthropiques.
- Les chercheurs rendent compte de leurs résultats dans des articles qu’ils offrent gratuitement aux journaux scientifiques afin de faire connaître leurs travaux, de se faire connaître eux-mêmes et de parfaire leur curriculum vitæ. Pour ce faire, ils renoncent explicitement à leurs droits d’auteurs et donc à la propriété intellectuelle qui est la leur et celle de l’institution où ils travaillent.
- Ces mêmes auteurs assurent également la qualité des articles publiés par d’autres dans ces journaux en lisant et critiquant les articles soumis par leurs pairs.
- Ils achètent, quelquefois à prix d’or, les journaux en question pour y lire les articles de leurs pairs.
- Malgré ce travail énorme de production et d’assurance de qualité, les chercheurs ont perdu tout contrôle sur ce processus pourtant si intimement lié à leurs intérêts primordiaux, un processus qui ne pourrait exister sans eux à aucun niveau (production, contrôle de qualité, lecture). Le prix de vente des abonnements à la plupart des journaux scientifiques est extrêmement élevé, et ne cesse de grimper toujours plus haut, les rendant petit à petit inaccessibles aux scientifiques du monde entier.

L’information scientifique se trouve donc devant un fossé financier irrationnel, artificiel et de plus en plus infranchissable et devant cet extraordinaire paradoxe qui est qu’ils font tout, de la production à la consommation, et qu’ils paient à tous les niveaux. Et ils tirent de cette arnaque une telle fierté, une telle satisfaction d’ego, qu’ils se font piéger avec consentement, paient leurs frais de recherche, paient leur frais de publication de plus en plus souvent et de plus en plus cher, font le reviewing gratuitement et achètent les revues. En outre, de nos jours, on exige d’eux de fournir leurs manuscrits « camera ready », dégageant les éditeurs du travail typographique. Les efforts que font les institution de recherche pour acheter les revues (2,5 millions d’euro dans une université comme la nôtre) escamotent aux yeux des chercheurs une partie du coût réel de ce paradoxe et contribuent sans doute ainsi à la soumission générale, mais le paradoxe est quand même bien réel.

Le paradigme

Sans prétendre être la panacée, et sans vouloir nuire aux éditeurs honnêtes — ceux qui n’ont pas perdu le sens moral et savent se contenter d’un profit légitime et raisonnable — le mouvement pour les journaux en libre accès et les archives libres offre des approches pratiques qui permettent à l’information scientifique d’être librement accessible dans le monde entier, en accord avec les conceptions les plus nobles des scientifiques.
Le Libre Accès conduit, dans les pays industrialisés, à des économies considérables dont on a un besoin urgent pour maintenir un niveau raisonnable au financement de la recherche.
Le Libre Accès accorde aux pays en voie de développement et en transition un accès gratuit à la connaissance scientifique, ce qui constitue une condition absolue et fondamentale pour l’établissement d’un système éducatif efficace, et pour fournir la base d’un développement intellectuel et économique durable. Il aiderait également les pays émergents à constituer leurs propres journaux scientifiques. Seule l’inertie historique maintient la situation actuelle.

La guerre est déclarée

La «Déclaration de Berlin sur le Libre Accès à la Connaissance en Sciences exactes, Sciences de la vie, Sciences humaines et sociales», signée le 22 Octobre 2003 par les agences allemandes et françaises de recherche est vraiment une étape majeure en faveur du Libre Accès qui a véritablement déclenché un changement de paradigme partout dans le monde, en ce qui concerne l’édition scientifique. De nombreuses agences de recherches dans divers autres pays ont, depuis, signé cette déclaration. Il se dessine donc une nouvelle dynamique vers le Libre Accès, reconnue dans la déclaration de principe qui dit ceci:
«Nous nous efforçons de promouvoir un accès universel, avec égalité des chances pour tous aux connaissances scientifiques ainsi que la création et la vulgarisation des informations scientifiques et techniques, y compris les initiatives favorisant l’accès libre aux publications scientifiques».
En fait, il s’agit bien, pour les chercheurs et quel que soit leur domaine de recherche, de reprendre en mains un processus qui leur a malencontreusement échappé.

Il faut que chacun comprenne bien la lutte sans merci que nous avons décidé de mener contre des procédés commerciaux inacceptables qui se pratiquent à nos dépens et que nous ne pouvons plus tolérer.
En allant aussi loin, les « éditeurs prédateurs » ont poussé à bout les responsables des bibliothèques et de tous les outils de documentation, leur ont donné la rage de réagir violemment et de combattre. Cette colère atteint aujourd’hui les chercheurs qui, bien qu’au centre du débat, l’ignoraient jusqu’ici largement, puisque rarement au courant de la réalité de la flambée des prix par ce processus insidieux de dissociation des tâches que je mentionnais plus haut.
En outre, ils ont permis la démonstration que, plus qu’une solution de défense, la publication en accès libre est un véritable progrès technique et fonctionnel et qu’il n’y aura pas de retour en arrière.

La guerre est déclarée. Elle se combattra par beaucoup de moyens, mais puisqu’il s’agit d’un Goliath contre une multitude de petits David, ceux-ci doivent s’unir et utiliser les avancées technologiques à leur disposition pour se battre.
De toute évidence, la guerre implique un blocus, un boycott complet des éditeurs sans scrupules, tant à l’achat, donc la lecture, qu’à la production, donc la publication, en passant par l’assurance de qualité du produit, donc le reviewing. Il faut que les chercheurs comprennent bien cela: ce sont eux qui sont pris au piège, pas les bibliothécaires. Et ce sont justement eux qui ont les armes, mais il faut qu’ils s’en servent !

Alors, commençons aujourd’hui, en bons scientifiques, par analyser froidement la situation et examinons les pistes qui s’offrent à nous.

Qu’est-ce qui importe ?

L’objectif de la publication est que le chercheur puisse relater ses travaux de telle manière que le plus grand nombre possible d’autres chercheurs puissent en prendre connaissance. Si l’accès à cette publication est peu coûteux, rapide et si la diffusion en est large, le chercheur a atteint son véritable but. L’Internet permet un accès gratuit, immédiat et universel, il constitue donc le moyen idéal de diffuser les informations scientifiques.

Dans la déclaration de l’IFLA (International Federation of Library Associations and Institutions; http://www.ifla.org/) sur l’Accès libre à la littérature scientifique et à la documentation de recherche, on trouve : L’accès libre garantit l’intégrité du système de communication scientifique en assurant que toute recherche et connaissance est disponible à perpétuité pour un examen illimité et, si nécessaire, pour un développement ou une réfutation.

On peut penser qu’un tel mode de diffusion a déclenché aussitôt un grand enthousiasme dans le monde scientifique, mais ce n’est pas encore vraiment le cas, bien que les choses évoluent vite.

Quels sont les freins à la généralisation de ce système ?

1. La pérennité de mes publications est-elle assurée ?
2. Trouverai-je un journal électronique dans lequel cadreront mes recherches ?
3. Comment la qualité scientifique du contenu de mes publications sera-t-elle contrôlée ?
4. Comment assurerai-je un bon niveau de facteur d’impact si je ne publie plus dans des revues cotées ?

Les réponses à ces inquiétudes sont simples:

1. Techniquement, la stabilité des contenus n’est pas plus précaire parce qu’elle est électronique. Il ne s’agit que de reproduire suffisamment de versions de l’original pour éviter toute perte définitive, de transposer les contenus sur de nouveaux supports lorsque les standards évoluent et de conserver des tirages papier dans des bibliothèques, si l’on croit plus à la pérennité du papier qu’à celle des supports électroniques. Beaucoup d’universités, comme la nôtre, envisagent d’entreposer une version électronique et une version papier des toutes les publications de ses chercheurs.

2. Les « journaux » électroniques sont aujourd’hui toujours plus nombreux. Dans le Directory of Open Access Journals, 2235 journaux sont répertoriés (une soixantaine il y a quatre ans) et leur table des matières et souvent les résumés d’articles sont accessibles. Parmi eux, 638 journaux permettent la lecture complète des articles, actuellement, 97.820 articles sont disponibles (http://www.doaj.org/)

3. Le peer reviewing est lié à la volonté des chercheurs de garantir la qualité de leurs publications. On peut aussi bien soumettre à l’avis des pairs une publication électronique qu’une publication traditionnelle.

4. La mesure de l’impact d’un article électronique est bien plus précise (l’impact peut être celui de l’article lui-même et non celui de la revue qui le publie) et plus immédiate que la mesure d’impact devenue classique. Par ailleurs, l’impact véritable, c’est-à-dire le nombre de ses lecteurs, est bien plus grand avec ce type de diffusion par internet et, partant, les opportunités d’être cité par ses pairs sont beaucoup plus grandes. Ainsi, un article publié cette semaine (électroniquement!) par Gunther Eysenbach (« Citation Advantage of Open Access Articles ») expose clairement les atouts de la publication électronique en accès libre : http://biology.plosjournals.org/perlserv/?request=get-document&doi=10%2E1371%2Fjournal%2Epbio%2E0040157#AFF1/. La revue édite par ailleurs un commentaire sur cet article : http://biology.plosjournals.org/perlserv/?request=get-document&doi=10.1371/journal.pbio.0040157/ Il en ressort que les articles en accès libre sont plus rapidement lus et cités, démontrant bien la thèse que nous défendons depuis plusieurs années et qui affirme que la publication en libre accès favorise et accélère la diffusion des connaissances, le dialogue entre les chercheurs et qu’elle devrait donc se généraliser le plus rapidement possible.

Pour cela, il importe que les jurys et commissions qui sont appelés à juger de la qualité scientifique d’un chercheur ou d’une équipe de chercheurs accordent tout le crédit qu’elles méritent à ces publications.

La recherche universitaire, service public

Un dernier élément entre en compte : les recherches réalisées avec des deniers publics ne doivent-elles pas être rendues accessibles à tous ?

Les Etats Unis d’Amérique viennent de franchir ce pas, par l’adoption du Federal Research Public Access Act qui exige de toute agence fédérale dont le budget dépasse 100 millions de dollars qu’elle mette en œuvre une politique d’accès libre assurant la mise sur Internet de tout article résultant d’une recherche subventionnée par cette agence au plus tard six mois après sa publication. L’agence doit obtenir de chaque chercheur qu’il dépose une version électronique de son article accepté pour publication dans un journal revu par des pairs. Elle doit assurer la préservation durable du manuscrit sous forme électronique et son accès permanent, libre et gratuit pour tous.
http://cornyn.senate.gov/index.asp?f=record&lid=1&rid=237171/.

La Communauté européenne se penche actuellement sur l’identification d’un moyen d’arriver au même objectif : rendre au public ce qui a été obtenu avec des deniers publics.
http://europa.eu.int/rapid/pressReleasesAction.do?reference=IP/06/414/.

Enfin, quand on considère bien tous les éléments positifs de la publication en libre accès (rapidité, efficacité, universalité du lectorat potentiel, référence rapide par lien électronique, utilisation de techniques inapplicables à la publication sur papier telles que les animations, les films, etc; connaissance permanente des documents où nos propres travaux sont cités), on comprend que la voie est tracée, que le mouvement est irréversible et que désormais, les scientifiques vont se tourner vers ce nouveau mode de publication. Un nouveau paradigme est né, et avec lui une nouvelle ère de la recherche scientifique.

« Page précédentePage suivante »