Recherche


Ce jeudi 28 septembre, une conférence-débat sera organisée à la Salle Académique de l’Université de Liège, à l’initiative du Centre Jean Gol et du CReF (Conférence des Recteurs francophones) sur le sujet préoccupant du financement des universités.
On ne trouvera personne, dans les universités, dans la presse, dans les cabinets ministériels ou dans les quartiers généraux des partis politiques pour nier que la dernière et désormais la seule véritable ressource de notre pays, de notre Communauté, est la matière grise, celle-là même qui nous permet de rester « dans le coup » de la compétition internationale, de la mondialisation des biens et des produits. Il ne se trouvera personne non plus pour nier que la vraie ressource n’est pas la matière grise brute, mais que celle-ci nécessite un raffinage, un processing qui la transforme en matière grise élaborée, capable de se hisser sur les épaules des fabricants du savoir qui nous ont précédé et de jouer un rôle réellement créatif, réellement innovant, réellement original. Chacun s’accordera également pour dire qu’il faut veiller à conserver ces innovations chez nous et les exploiter nous-mêmes et on admettra qu’il faut élaborer des systèmes de valorisation efficaces et parfaitement sécurisés.
Néanmoins, toute notre attention doit se porter sur l’étape de raffinage et de finition de la matière grise et ces procédés sont le fait de l’enseignement supérieur et, par excellence, de l’Université.

Le financement des universités, c’est donc exactement comme l’arrosage et l’épandage d’engrais sur des cultures précieuses : il doit être abondant et régulier. Et ces soins doivent être prodigués dans l’intérêt de tous. Croire qu’il s’agit là d’un luxe onéreux est tout simplement de la mauvaise gestion.

Pour accomplir leurs missions d’enseignement et de recherche (on ajoute souvent « de service à la communauté » mais l’enseignement et la recherche SONT des services à la communauté ! Ce sont les meilleurs services que nous puissions rendre, d’ailleurs !) les universités ont besoin d’un financement adéquat. Tous les spécialistes sont d’accord pour dire que le financement est insuffisant. Et il ne s’agit pas là de ma part d’un discours corporatiste primaire, mais de l’expression de l’intérêt général.

Au moindre souci budgétaire, au moindre frémissement financier, c’est immédiatement l’Université, la Recherche et la Culture qui sont en point de mire des réductions de budget. Or ce sont là les vraies originalités, les vraies spécificités d’une nation telle que la nôtre. Dans la plupart des autres domaines, nous faisons « comme tout le monde » et, en général, pour plus cher, ce qui nous met en position concurrentielle difficile. C’est donc la spécificité qu’il faut cultiver, la spécificité de recherche et d’innovation de même que la spécificité culturelle.

Et pourtant, l’article publié dans la Libre Belgique d’hier, mardi 26 septembre 2006 (p.20), confirme mon diagnostic en annonçant que la sixième phase des Pôles d’Attraction Interuniversitaires (PAI) qui est actuellement en discussion est dangereusement menacée, le Gouvernement fédéral, qui connaît à l’heure actuelle des difficultés de nature politique et budgétaire, envisageant de réduire, voire de supprimer le financement des PAI. Une telle décision, s’il ne s’agissait pas d’une simple rumeur, porterait un coup fatal à la recherche scientifique fondamentale dans nos universités.

Lancé en 1987 par Guy Verhofstadt, alors Ministre de la Politique scientifique fédérale, ce programme de recherche ambitieux était conçu pour édifier des réseaux de recherche interuniversitaires au sein desquels travailleraient, en parfaite collaboration, les meilleurs chercheurs des Communautés francophone et néerlandophone sur des thématiques innovantes et extrêmement compétitives, et cela en bénéficiant de moyens comparables aux meilleures équipes mondiales.

Rapidement, le programme PAI prit son essor et remplit parfaitement son rôle, finançant les recherches de plus de 500 spécialistes au sein de 36 réseaux inter-universitaires, sévèrement triés sur le volet et leur permettant de dégager une production scientifique abondante et de grande qualité dans tous les domaines du savoir. Ces réseaux d’excellence sont pour beaucoup dans la réputation internationale de la recherche belge.

Cinq phases successives ont été accomplies de 1987 à 2006. En principe, la sixième phase devrait être lancée en janvier 2007. Plus de 80 projets ont été sélectionnés par des experts étrangers et on attend 143 millions d’€ à répartir sur une période de cinq ans (les recteurs des deux communautés ont demandé qu’on monte à 200 millions, en raison du nombre et de la qualité des projets).

L’article de la Libre laisse penser que certains envisageraient de retarder, ou même d’abandonner ce programme d’excellence, en contradiction avec le bon sens élémentaire d’un soutien aux efforts de recherche en Belgique et avec les déclarations et engagements du Comité Interministériel de la Recherche Scientifique et du Gouvernement fédéral.

Les recteurs, stupéfaits, se sont immédiatement concertés et ont pris contact avec l’ensemble des forces politiques fédérales, régionales et communautaires. En effet, une telle mesure menacerait la survie de nombreux laboratoires et groupes de recherche, beaucoup de chercheurs se retrouveraient rapidement sans emploi, et seraient ainsi amenés à chercher des opportunités à l’étranger, forts de la formation de qualité qu’ils ont acquise chez nous grâce à un investissement important des deniers publics.

Selon des informations obtenues ce matin, le Cabinet du Premier Ministre confirmerait le maintien du budget de la sixième phase des PAI et celle-ci prendrait bien cours le premier janvier prochain. On s’en doute, l’augmentation de 57 millions d’€ que le CReF et le VLIR (Conférence des recteurs néerlandophones) avaient demandée et que nous avions de bonnes raisons d’espérer, ne pourra hélas pas être honorée. Quoi qu’il en soit, c’est là quand même une excellente nouvelle qui ne manquera pas de rassurer tous ceux qui se sont émus à la lecture de cet article de presse alarmant.

Nous pouvons nous féliciter de la solidarité de tous les recteurs tant francophones que néerlandophones, ainsi que de la promptitude et de l’efficacité de leur réaction à une information déroutante qui, nous le savons maintenant, était fondée. Nous devons aussi remercier les services du CReF et du FNRS pour leur soutien dans le dénouement heureux de cet épisode.

Dans le cadre de son engagement dans la politique d’ouverture du Libre Accès, notre université a pris ou s’apprête à prendre, dans les semaines qui viennent, une série de décisions importantes :

1. La mise en ligne sur Internet des thèses de doctorat défendues à l’ULg pour les rendre librement consultables. Cette initiative s’harmonisera avec les autres universités de la Communauté française de Belgique (BICTEL/e).

2. Le dépôt, sous forme électronique, de publications scientifiques des membres de l’ULg afin d’en permettre la diffusion libre par Internet. A l’heure actuelle, plusieurs centaines de documents scientifiques de membres de l’ULg sont déjà repris sur cet outil qui devrait être mis en production début 2007. Bien évidemment, certaines contraintes en matière de droits d’auteurs ou de renoncement à la propriété intellectuelle persistent, mais ce grand mouvement mondial auquel nous adhérons pleinement devrait bientôt envoyer les anomalies du passé au rayon des mauvais souvenirs.

3. La création d’un portail de publication de périodiques scientifiques de l’ULg qui permettra de mettre en ligne, en texte intégral et librement accessible, certains des périodiques édités en son sein (« PoPuPS ULg »).

Je tiens à féliciter notre Réseau des Bibliothèques pour ces initiatives parfaitement en phase avec notre combat pour l’accès libre à la documentation scientifique universelle et qui offrent à ce combat les armes nécessaires.

———————

Commentaire de Jan Haspeslagh, le 3 juin 2006 :

Je suis très content de voir que le support pour l’Open Access en Belgique évolue dans la bonne direction. En effet, ce n’est qu’au moment où les responsables des universités commencent à regarder dans la même direction qu’on peut penser à discuter et organiser les moyens pour aboutir au but essentiel: libre accès à la production scientifique complète de la Belgique. Même si la situation dans notre pays ne favorise pas réellement la coopération entre les régions, je crois que le temps est venu pour les recteurs de se contacter et de s’organiser ensemble. J’espère que l’Open Access en Belgique sera un projet commun des universités et institutions scientifiques flamandes, wallonnes et bruxelloises.

Cordialement,

Jan Haspeslagh
Bibliothécaire
Vlaams Instituut voor de Zee
Flanders Marine Institute
Wandelaarkaai 7
Oostende, Belgium
http://www.vliz.be/
Nos archives libre-accès: http://www.vliz.be/EN/Marine_Library/Library_OMA/

D’autres avis ou liens utiles :

http://newsletters.afnet.fr/LLA/20060522932/1148286012713
http://www.pps.jussieu.fr/~dicosmo/MyOpinions/atom.php?type=co
http://civicaccess.ca/pipermail/civicaccess-discuss_civicaccess.ca/2006-May/000614.html
http://www.domainepublic.net/sommaire.php3
http://openaccess.inist.fr/

Sites généraux d’information sur l’Open Access Initiative et l’Open Archives Initiative :

http://www.soros.org/openaccess/
http://www.biomedcentral.com/openaccess/www/?issue=4
http://www.earlham.edu/~peters/fos/boaifaq.htm
http://www.openarchives.org/
http://www.eprints.org/openaccess/self-faq/

Le saumon est de retour !

Disparu de nos eaux douces depuis 1942, le saumon atlantique est revenu dans la Meuse, mais ce n’est pas un hasard. L’idée a germé en 1983 dans l’esprit d’un spécialiste de l’écologie des poissons à l’ULg, Jean-Claude Philippart. A force de persévérance dans son travail scientifique en collaboration avec des collègues de Namur et à force d’obstination vis-à-vis des pouvoirs publics pour le financement de ses recherches et pour la mise en œuvre de travaux de très grande envergure (remise en état d’ancienne échelles à poissons et création de nouvelles, assainissement des eaux de rivières dans la région, participation active des autorités régionales, provinciales et communales ainsi que des entreprises), il a mené à bien une entreprise considérable et incroyablement complexe : le retour du saumon.
Certes, le retour de cette espèce-phare n’est qu’indicatif de la restauration de la qualité de nos eaux, mais il en est aussi la preuve éclatante. Le reste de la faune aquatique, moins délicat, en bénéficie d’autant plus.

Ce matin, nous avons signé avec le Ministre de l’Agriculture, de la Ruralité, de l’Environnement et du Tourisme de la Région Wallonne et les Facultés Universitaires Notre-Dame de la Paix à Namur une convention de recherche qui perpétue la suite des conventions ainsi signées depuis 1987, année européenne de l’Environnement.

Je me plais à saluer ici la persévérance des chercheurs qui ont cru à leur projet et l’ont mené à bien jusqu’à sa réussite. Réussite qui devra maintenant être poursuivie avec le réempoissonnement en saumon des rivières affluentes de la Meuse, grâce aux élevages réalisés dans des salmonicultures telles que celle d’Erezée, une très belle installation où nous avons symboliquement signé la convention. Je salue également la collaboration interuniversitaire dans ce programme et la collaboration fructueuse et bien intégrée avec divers ministères de la RW, dont le MET, pour les infrastructures de rivières.

Un très beau succès collectif. Un bel exemple qui peut frapper, peut-être plus que d’autres, les esprits et aider à montrer combien aujourd’hui, science, technique et gouvernance citoyenne sont intimement liées. Une occasion également de saluer tous les programmes moins visibles pour le grand public, mais tout aussi utiles et qui ne pourraient voir le jour sans la participation des chercheurs universitaires et leur capacité d’intégrer le savoir et le savoir-faire, mais aussi leur remarquable aptitude à convaincre. Celle-ci apporte un très grand crédit à l’inventivité de nos chercheurs, en général.

La semaine dernière, j’ai eu l’occasion de découvrir deux instruments de grande dimension que l’ULg utilise et dans lesquels elle pourrait s’impliquer plus encore.

Le premier est la station scientifique et l’observatoire du Jungfraujoch, dans les Alpes suisses bernoises. Depuis bientôt soixante ans, à l’instigation du professeur Migeotte, visionnaire de l’astronomie, l’Université de Liège y réalise des observations solaires passionnantes. Depuis une vingtaine d’années, le soleil s’y est également transformé en source lumineuse permettant d’observer la composition des couches élevées de l’atmosphère: la haute troposphère au dessus de 4.000 m et la stratosphère. Dans ces couches s’accumulent des gaz à effet de serre et des produits de dégradation de substances générées par l’activité humaine dont les effets peuvent s’avérer délétères pour le climat global. Les appareillages et méthodes développés par le GIRPAS (Groupe Infrarouge de Physique Atmosphérique et Solaire) de l’ULg sont en constante évolution et permettent des observations qui sont considérées comme la référence en matière d’observation atmosphérique, ce qui donne aux résultats et à leur évolution inquiétante au cours des deux dernières décennies, un relief tout particulier. Il est clair que ces mesures de plus en plus fines, combinée à des données satellitaires moins précises mais extra-stratosphériques, y compris sur des observations rétrospectives portant sur de nombreuses années de présence constante sur le site, doivent être poursuivies, dans l’intérêt de la planète tout entière et de la vie à sa surface.

Le Jungfraujoch (Col de la Jungfrau) est situé entre les sommets de la Jungfrau et du Mönch dans un massif qui comprend aussi l’Eiger (la légende veut que le ‘moine’ protège la ‘jeune fille’ de l’ ‘ogre’ !). La station y fut créée en 1931 et le FNRS y participe depuis lors. La dernière coupole d’observation fut installée en 1966 avec un télescope de 76 cm. En altitude (3.580 m) et proche d’un glacier, l’observatoire est idéalement situé en atmosphère sèche, sans pollution locale.

L’aide précieuse de la Politique Scientifique Fédérale (ex-Services fédéraux des affaires scientifiques, techniques et culturelles, SSTC) et du Fonds National de la Recherche Scientifique (FNRS) ainsi que de nombreuses collaborations à des programmes belges, européens et internationaux assurent la durabilité de ce programme d’observation. L’ULg, et en particulier son département AGO (Astrophysique-Geophysique-Océanographie), doit réserver à cette activité des moyens humains et matériels dignes de l’intérêt qu’elle y porte, pour autant que l’intérêt académique et scientifique qu’y porte le département se concrétise dans un avenir proche.

http://sunset.astro.ulg.ac.be/girpas/gir4proe.htm


La Jungfrau (à gauche) vue de Wengen. L’observatoire situé au col est masqué par le contrefort montagneux à l’extrême gauche.

Le second instrument est le Synchrotron Européen de Grenoble, grand accélérateur de particules de l’ESRF (European Synchrotron Research Facility) flanqué du réacteur nucléaire de l’ILL (Institut Laue-Langevin), outils de très grande qualité fournissant aux chercheurs de toute l’Europe des flux de neutrons ou de rayons X d’une finesse et d’une intensité considérables. Ceux-ci permettent des observations microscopiques irréalisables sans eux, la recherche d’éléments très dilués, l’analyse médicale d’organes sous doses rayonnement moindres mais qualitativement et quantitativement plus précises ou encore le suivi de réactions chimiques ou biologiques de durée extrêment brève, sans compter les applications déjà connues en physique ou en géologie. C’est ainsi que les neutrons se révèlent extrêmement utiles pour les études de structure de la matière, y compris la matière organique: la cellulose des végétaux, les complexes protéo-lipidiques du sang, les enzymes et leur fonctionnement, les membranes cellulaires, les molécules responsables de la captation lumineuse chez les plantes, les nanoparticules du lait ou les microfibrilles musculaires lors de leur contraction, pour ne citer que celles-là.

L’Ulg est bien présente sur ce site, mais pourrait l’utiliser encore mieux, d’autant que l’accès y est gratuit (la Belgique participe financièrement), voyage et hébergement compris, et la sélection s’opère sur la qualité des projets. Le développement récent dans le domaine des « objets mous » et de la biologie étend encore les domaines d’application de ces faisceaux qui ne demandent qu’à être utilisés au mieux par nos chercheurs, probablement encore trop peu conscients aujourd’hui de l’usage qu’ils peuvent faire de ce mode d’expérimentation.

http://www.esrf.fr
et
http://www.ill.fr


Le site de l’ESRF (anneau) et de l’ILL (dôme) et les infrastructures conjointes entre Isère et Drac, vus de la colline de la Bastille.

L’article précédent « Accès libre » a suscité plusieurs réflexions (voir commentaires de l’article) et j’en remercie les auteurs.
Pour ne pas ajouter à la confusion en répondant à la suite de ces commentaires, je reprends ici les questions posées par certains pour tenter d’y répondre.

François Schreuer relève deux points faibles de mon argumentation :

« Un premier point, que vous n’abordez pas directement, est celui du financement des revues en accès libre. Sans doute des solutions pratiques sont envisageables (subventions publiques, prise en charge directement par les universités) sans trop de difficultés, mais je serais heureux de connaître celle que vous privilégiez. Ce point reste d’ailleurs un des arguments saillants des défenseurs du modèle propriétaire. D’autant qu’il me semble avoir lu à plusieurs reprises que le ‘peer reviewing’ est, dans un certain nombre de cas, rémunéré par les revues. »

En effet, ce problème n’est pas sans intérêt: on ne peut remplacer une solution coûteuse par une solution gratuite !

Il est clair que le principe de l’Open Access (OA) implique le transfert du paiement du lecteur à l’auteur. Et que, vu le nombre de lecteurs par rapport au nombre d’auteurs, on doit s’attendre à un flux financier bien moindre au total. Cependant, il ne faut pas négliger le fait que les lecteurs sont des auteurs, très généralement, et que cet effet est sans doute moins énorme qu’il n’y paraît à première vue.

Les responsables des revues actuellement disponibles en OA ont trouvé la parade en demandant aux auteurs de contribuer au coûts et en offrant aux universités la possibilité de prendre ces frais en charge pour leurs chercheurs, en pratiquant des prix réduits. C’est l’option que je préfère, dans la mesure où le passage à l’OA réduira les coûts de la documentation largement prise en charge aujourd’hui par les universités. Mais que les celles-ci participent ou non, il est simple de prévoir, dans les frais de recherche, des frais de publication. Cette nouvelle pratique doit être rapidement admise et encouragée par les bailleurs de fonds de recherche, au même titre que de l’argent de fonctionnement ou d’équipement. Elle contribuera d’ailleurs, on peut l’espérer, à une certaine responsabilisation du chercheur et à une diminution de la pléthore actuelle d’articles scientifiques inutiles ou redondants. Cette pléthore s’explique d’une part par la spirale infernale du « publish or perish » qui pousse les chercheurs, surtout les jeunes, à tenter de publier n’importe quoi, ce qui submerge les ‘reviewers’ et noie l’information importante, et d’autre part par la voracité de certaines maisons d’édition qui multiplient à l’infini les revues en raison de leur rentabilité démesurée.

Il va de soi que les versions ‘papier’ (pour ceux qui souhaitent encore, et c’est bien compréhensible, feuilleter réellement et non virtuellement les revues, les lire dans leur fauteuil chez eux ou, en tout cas, garder un rapport physique au texte écrit) doivent rester payantes par le lecteur.

Enfin, le ‘peer reviewing’ rémunéré reste une pratique rare et c’est heureux: le désintéressement est un des piliers de l’objectivité en matière de contrôle de qualité. Il n’est donc nullement souhaitable de voir cette pratique se généraliser et les chercheurs eux-mêmes doivent s’en défendre.

« Un second point est celui de l’impact des grandes revues qui ne va pas s’effondrer tout seul, loin s’en faut. Tant au niveau belge (là, des solutions sont sans doute possible à moyen terme si l’on y met une énergie conséquente) qu’au niveau international, la carrière des chercheurs et la réputation des universités dépendent largement des publications dans ces “grandes” revues. Si demain, tous les chercheurs de l’ULg cessent de publier dans ces revues, certes l’ULg remplira sans doute mieux son rôle de service public, contribuera au développement du sud et participera à la promotion d’un modèle alternatif,… mais verra en même temps sa cote internationale baisser. Et tout arbitraire et injuste que cela soit, ça ne sera pas sans conséquences très pratiques et très lourdes. »

Effectivement, c’est là un souci souvent mis en avant par les chercheurs eux-mêmes.
En fait, ce n’est qu’un mauvais moment à passer ! Plusieurs stratégies mutuellement compatibles sont en train de se mettre en place et la victoire est inéluctable. Elle n’est retardée que par un snobisme savamment entretenu qui repose sur des décennies de tradition dans le domaine de la publication scientifique. La difficulté, dans l’être pré-électronique, de mesurer l’impact réel d’un article de recherche sur la communauté scientifique a obligé les évaluateurs à emprunter un raccourci plein d’effets pervers: mesurer l’impact de la revue qui publie l’article (indice d’impact = nombre de fois que la revue est citée/nombre d’articles dans la revue). Cet indice a été inventé au départ pour permettre l’évaluation des revues et constituent toujours un outil utile pour les éditeurs. Etendre cet indice d’impact-là à un article en particulier est forcément fallacieux et ce l’est encore plus d’étendre cette évaluation à celle de l’auteur !
Une meilleure appréciation de l’impact d’un article est d’en mesurer le nombre de citations (élogieuses ou dénigrantes, peu importe, on parle ici d’impact sur la communauté scientifique). Très malaisée au début, et terriblement biaisée, comme les indices d’impact des revues d’ailleurs, par le monde anglo-saxon, cette évaluation des citations s’est vue grandement facilitée ces derniers temps par l’avènement de l’électronique. On voit donc aujourd’hui pourquoi on peut mesurer approximativement, mais de manière plus fiable néanmoins, le nombre de citations d’un article dans la littérature scientifique.
Et l’on voit aussi immédiatement pourquoi les articles publiés en OA sur internet permettent une consultation immédiate du contexte où l’article original est cité. On peut donc aujourd’hui suivre la « carrière » d’un article qu’on a publié et son influence sur la pensée scientifique, au jour le jour.
Juger l’importance de la contribution d’un chercheur est également grandement facilité par ces techniques modernes.

Un phénomène nouveau se dessine. Qu’on aime ou non, les chercheurs aujourd’hui consultent plus volontiers la littérature qui les concerne sur l’internet que dans les bibliothèques. C’est un fait de plus en plus souvent remarqué. (Et je reste, bien sûr, conscient que ce phénomène s’observe surtout dans des domaines qui concernent les sciences dites exactes et les sciences de la vie, encore qu’on commence à me le signaler en sciences humaines également, seules les Lettres étant encore ‘épargnées’). Les articles cités commencent donc à être préférentiellement ceux qui sont publiés en OA et sur le Net. Cet effet ne va faire que progresser, par un phénomène d’auto-amplification simple à comprendre. Et c’est déjà une constatation: plusieurs journaux électroniques et plus particulièrement ceux qui publient en OA apparaissent aujourd’hui dans les tables d’indices d’impact et atteignent déjà des sommets inégalés. Alors, de deux choses l’une: soit les journaux électroniques en OA vont supplanter tout le reste en atteignant des valeurs astronomiques, soit le système de mesure de l’indice d’impact va disparaître, victime de son absurdité. Il a eu son temps et son intérêt, à condition d’être pris avec beaucoup de circonspection, il va devenir aujourd’hui obsolète et ne servira plus qu’à ce pourquoi il a été conçu: la mesure de l’impact des journaux, non des articles qu’ils contiennent et encore moins des auteurs.
Cet effet est spontané, lié à une plus grande facilité qu’ont les chercheurs de se référer à des sources facilement accessibles: la paresse naturelle prévaut toujours ! Mais il peut être également volontairement induit. J’en prends pour exemple la note de Jacques Dumont que j’ai reprise parmi les commentaires de mon article précédent, « Accès Libre »: les chercheurs commencent à réagir en citant préférentiellement les articles publiés en OA, afin d’accélérer délibérément le processus de promotion de ce moyen de communication scientifique largement ouvert.

« Alors, comme vous le dites, bien sûr, un rapport de force est à construire, mais cela suffira-t-il ? Des mesures législatives ne sont-elles pas nécessaires, de façon globale, notamment pour limiter l’inflation démesurée de la propriété intellectuelle, la dérive de modèle du droit d’auteur vers une conception strictement patrimoniale des droits sur les contenus, promouvoir des exceptions pédagogiques et scientifiques, etc. »

Tout-à-fait d’accord, bien que je ne sois pas un grand adepte du « tout légiférer ». Mais on assiste aujourd’hui à un grand éveil à la notion de propriété intellectuelle au sein des universités et l’ULg s’en préoccupe beaucoup. Peut-être est-ce la raison pour laquelle elle est en queue de peloton dans la problématique de la mise sur internet des thèses et mémoires, tant que la sécurité n’est pas assurée en matière de propriété intellectuelle, précisément. Mais il est incontestable que les exceptions pédagogiques et scientifiques doivent prévaloir.

Par ailleurs, dans le même esprit — celui qui consiste pour l’université à (re)gagner son indépendance vis-à-vis des pouvoirs économiques extérieurs –, ne serait-il pas souhaitable d’envisager de migrer l’informatique des universités vers des solutions libres ?

Très juste ! Et c’est bien ce qui est en train de se produire. Nous avançons dans cette voie, avec, bien sûr, la réticence compréhensible de nos chercheurs et de tout notre personnel. Mais il est clair que les logiciels libres font de plus en plus leur chemin dans nos ordinateurs et dans nos serveurs.

—————————————————————————————————————————

Roberto Di Cosmo signale « qu’il ne faut pas sous-estimer l’énorme problème légal qui est constitué par la cession des droits d’auteur pour les publications en cours »

Effectivement, cette cession contrainte par les éditeurs n’existe encore qu’à cause d’une vieille tradition qui remonte à l’époque où les chercheurs ont confié à des professionnels, tout d’abord au sein des sociétés savantes, ensuite aux édteurs privés, la fonction d’éditer, de publier et de vendre leurs articles scientifiques. Le nouveau paradigme de l’OA fait disparaître cette nécessité et la rend même inacceptable dorénavant.

—————————————————————————————————————————

Stevan Harnad, dont je salue au passage le travail considérable et mondialement connu en tant que spécialiste de la documentation, me reproche de faire la part trop belle « au chemin « doré » envers le libre accès (LA) qu’est la publication dans les revues LA. Selon lui, « le chemin le plus rapide et le plus sûr envers le LA à 100% c’est le chemin « vert » — l’autoarchivage par l’auteur, dans son dépôt institutionel — de 100% des articles [2,5 millions par année] publiés dans toutes les revues [24000] (qu’elles soient LA [10%] ou non-LA [90%]). »

Voilà une proposition forte, à laquelle on ne peut qu’adhérer. Pour le moment, il me semble que nous ayions encore des contraintes en termes de droits d’auteurs auxquels nous avons explicitement renoncé, mais si la recommandation A1 de la Commission européenne est d’application, alors nous aurons un nouveau moyen de rendre l’accès à l’ensemble de la production scientifique tout à fait ouvert. C’est évidemment un « forcing » bien nécessaire si on ne veut pas attendre la conversion des 90% des revues qui ne sont pas encore en OA, ce qui pourrait encore prendre des décennies. Ceci demande de la part des universités et centres de recherche, un effort particulier, mais pourquoi pas ?

—————————————————————————————————————————

Simon Daron rompt lui aussi une lance en faveur des logiciels libres et il se demande pourquoi « vous ne parlez pas par exemple des licences “publiques” (open content, creative commons, gpl, …).

Tout simplement parce que je ne puis ici couvrir l’entièreté de la question…!
Je vous reporte pour cela au près des spécialistes ! Mon intention n’était que d’attirer l’attention, en particulier de mon université, sur la problématique du coût des publications et de la voie de l’OA.

—————————————————————————————————————————

Nicolas Pettiaux plaide « pour que ceci soit aussi développé plus largement dans le cadre de l’enseignement, pour développer des contenus libres de qualité (sous licences libres) » et je ne puis qu’être bien d’accord avec lui.

Le paradoxe

L’accès libre à l’information scientifique est l’un des enjeux les plus fondamentaux de la société de l’information telle que la façonnent les progrès de la science et des technologies, ainsi que de la communauté scientifique globale.

Toutefois, aujourd’hui, le monde de la recherche se trouve dans une situation pour le moins paradoxale:
- La plus grande partie de la recherche scientifique de haut niveau est financée par des établissements publics ou philanthropiques.
- Les chercheurs rendent compte de leurs résultats dans des articles qu’ils offrent gratuitement aux journaux scientifiques afin de faire connaître leurs travaux, de se faire connaître eux-mêmes et de parfaire leur curriculum vitæ. Pour ce faire, ils renoncent explicitement à leurs droits d’auteurs et donc à la propriété intellectuelle qui est la leur et celle de l’institution où ils travaillent.
- Ces mêmes auteurs assurent également la qualité des articles publiés par d’autres dans ces journaux en lisant et critiquant les articles soumis par leurs pairs.
- Ils achètent, quelquefois à prix d’or, les journaux en question pour y lire les articles de leurs pairs.
- Malgré ce travail énorme de production et d’assurance de qualité, les chercheurs ont perdu tout contrôle sur ce processus pourtant si intimement lié à leurs intérêts primordiaux, un processus qui ne pourrait exister sans eux à aucun niveau (production, contrôle de qualité, lecture). Le prix de vente des abonnements à la plupart des journaux scientifiques est extrêmement élevé, et ne cesse de grimper toujours plus haut, les rendant petit à petit inaccessibles aux scientifiques du monde entier.

L’information scientifique se trouve donc devant un fossé financier irrationnel, artificiel et de plus en plus infranchissable et devant cet extraordinaire paradoxe qui est qu’ils font tout, de la production à la consommation, et qu’ils paient à tous les niveaux. Et ils tirent de cette arnaque une telle fierté, une telle satisfaction d’ego, qu’ils se font piéger avec consentement, paient leurs frais de recherche, paient leur frais de publication de plus en plus souvent et de plus en plus cher, font le reviewing gratuitement et achètent les revues. En outre, de nos jours, on exige d’eux de fournir leurs manuscrits « camera ready », dégageant les éditeurs du travail typographique. Les efforts que font les institution de recherche pour acheter les revues (2,5 millions d’euro dans une université comme la nôtre) escamotent aux yeux des chercheurs une partie du coût réel de ce paradoxe et contribuent sans doute ainsi à la soumission générale, mais le paradoxe est quand même bien réel.

Le paradigme

Sans prétendre être la panacée, et sans vouloir nuire aux éditeurs honnêtes — ceux qui n’ont pas perdu le sens moral et savent se contenter d’un profit légitime et raisonnable — le mouvement pour les journaux en libre accès et les archives libres offre des approches pratiques qui permettent à l’information scientifique d’être librement accessible dans le monde entier, en accord avec les conceptions les plus nobles des scientifiques.
Le Libre Accès conduit, dans les pays industrialisés, à des économies considérables dont on a un besoin urgent pour maintenir un niveau raisonnable au financement de la recherche.
Le Libre Accès accorde aux pays en voie de développement et en transition un accès gratuit à la connaissance scientifique, ce qui constitue une condition absolue et fondamentale pour l’établissement d’un système éducatif efficace, et pour fournir la base d’un développement intellectuel et économique durable. Il aiderait également les pays émergents à constituer leurs propres journaux scientifiques. Seule l’inertie historique maintient la situation actuelle.

La guerre est déclarée

La «Déclaration de Berlin sur le Libre Accès à la Connaissance en Sciences exactes, Sciences de la vie, Sciences humaines et sociales», signée le 22 Octobre 2003 par les agences allemandes et françaises de recherche est vraiment une étape majeure en faveur du Libre Accès qui a véritablement déclenché un changement de paradigme partout dans le monde, en ce qui concerne l’édition scientifique. De nombreuses agences de recherches dans divers autres pays ont, depuis, signé cette déclaration. Il se dessine donc une nouvelle dynamique vers le Libre Accès, reconnue dans la déclaration de principe qui dit ceci:
«Nous nous efforçons de promouvoir un accès universel, avec égalité des chances pour tous aux connaissances scientifiques ainsi que la création et la vulgarisation des informations scientifiques et techniques, y compris les initiatives favorisant l’accès libre aux publications scientifiques».
En fait, il s’agit bien, pour les chercheurs et quel que soit leur domaine de recherche, de reprendre en mains un processus qui leur a malencontreusement échappé.

Il faut que chacun comprenne bien la lutte sans merci que nous avons décidé de mener contre des procédés commerciaux inacceptables qui se pratiquent à nos dépens et que nous ne pouvons plus tolérer.
En allant aussi loin, les « éditeurs prédateurs » ont poussé à bout les responsables des bibliothèques et de tous les outils de documentation, leur ont donné la rage de réagir violemment et de combattre. Cette colère atteint aujourd’hui les chercheurs qui, bien qu’au centre du débat, l’ignoraient jusqu’ici largement, puisque rarement au courant de la réalité de la flambée des prix par ce processus insidieux de dissociation des tâches que je mentionnais plus haut.
En outre, ils ont permis la démonstration que, plus qu’une solution de défense, la publication en accès libre est un véritable progrès technique et fonctionnel et qu’il n’y aura pas de retour en arrière.

La guerre est déclarée. Elle se combattra par beaucoup de moyens, mais puisqu’il s’agit d’un Goliath contre une multitude de petits David, ceux-ci doivent s’unir et utiliser les avancées technologiques à leur disposition pour se battre.
De toute évidence, la guerre implique un blocus, un boycott complet des éditeurs sans scrupules, tant à l’achat, donc la lecture, qu’à la production, donc la publication, en passant par l’assurance de qualité du produit, donc le reviewing. Il faut que les chercheurs comprennent bien cela: ce sont eux qui sont pris au piège, pas les bibliothécaires. Et ce sont justement eux qui ont les armes, mais il faut qu’ils s’en servent !

Alors, commençons aujourd’hui, en bons scientifiques, par analyser froidement la situation et examinons les pistes qui s’offrent à nous.

Qu’est-ce qui importe ?

L’objectif de la publication est que le chercheur puisse relater ses travaux de telle manière que le plus grand nombre possible d’autres chercheurs puissent en prendre connaissance. Si l’accès à cette publication est peu coûteux, rapide et si la diffusion en est large, le chercheur a atteint son véritable but. L’Internet permet un accès gratuit, immédiat et universel, il constitue donc le moyen idéal de diffuser les informations scientifiques.

Dans la déclaration de l’IFLA (International Federation of Library Associations and Institutions; http://www.ifla.org/) sur l’Accès libre à la littérature scientifique et à la documentation de recherche, on trouve : L’accès libre garantit l’intégrité du système de communication scientifique en assurant que toute recherche et connaissance est disponible à perpétuité pour un examen illimité et, si nécessaire, pour un développement ou une réfutation.

On peut penser qu’un tel mode de diffusion a déclenché aussitôt un grand enthousiasme dans le monde scientifique, mais ce n’est pas encore vraiment le cas, bien que les choses évoluent vite.

Quels sont les freins à la généralisation de ce système ?

1. La pérennité de mes publications est-elle assurée ?
2. Trouverai-je un journal électronique dans lequel cadreront mes recherches ?
3. Comment la qualité scientifique du contenu de mes publications sera-t-elle contrôlée ?
4. Comment assurerai-je un bon niveau de facteur d’impact si je ne publie plus dans des revues cotées ?

Les réponses à ces inquiétudes sont simples:

1. Techniquement, la stabilité des contenus n’est pas plus précaire parce qu’elle est électronique. Il ne s’agit que de reproduire suffisamment de versions de l’original pour éviter toute perte définitive, de transposer les contenus sur de nouveaux supports lorsque les standards évoluent et de conserver des tirages papier dans des bibliothèques, si l’on croit plus à la pérennité du papier qu’à celle des supports électroniques. Beaucoup d’universités, comme la nôtre, envisagent d’entreposer une version électronique et une version papier des toutes les publications de ses chercheurs.

2. Les « journaux » électroniques sont aujourd’hui toujours plus nombreux. Dans le Directory of Open Access Journals, 2235 journaux sont répertoriés (une soixantaine il y a quatre ans) et leur table des matières et souvent les résumés d’articles sont accessibles. Parmi eux, 638 journaux permettent la lecture complète des articles, actuellement, 97.820 articles sont disponibles (http://www.doaj.org/)

3. Le peer reviewing est lié à la volonté des chercheurs de garantir la qualité de leurs publications. On peut aussi bien soumettre à l’avis des pairs une publication électronique qu’une publication traditionnelle.

4. La mesure de l’impact d’un article électronique est bien plus précise (l’impact peut être celui de l’article lui-même et non celui de la revue qui le publie) et plus immédiate que la mesure d’impact devenue classique. Par ailleurs, l’impact véritable, c’est-à-dire le nombre de ses lecteurs, est bien plus grand avec ce type de diffusion par internet et, partant, les opportunités d’être cité par ses pairs sont beaucoup plus grandes. Ainsi, un article publié cette semaine (électroniquement!) par Gunther Eysenbach (« Citation Advantage of Open Access Articles ») expose clairement les atouts de la publication électronique en accès libre : http://biology.plosjournals.org/perlserv/?request=get-document&doi=10%2E1371%2Fjournal%2Epbio%2E0040157#AFF1/. La revue édite par ailleurs un commentaire sur cet article : http://biology.plosjournals.org/perlserv/?request=get-document&doi=10.1371/journal.pbio.0040157/ Il en ressort que les articles en accès libre sont plus rapidement lus et cités, démontrant bien la thèse que nous défendons depuis plusieurs années et qui affirme que la publication en libre accès favorise et accélère la diffusion des connaissances, le dialogue entre les chercheurs et qu’elle devrait donc se généraliser le plus rapidement possible.

Pour cela, il importe que les jurys et commissions qui sont appelés à juger de la qualité scientifique d’un chercheur ou d’une équipe de chercheurs accordent tout le crédit qu’elles méritent à ces publications.

La recherche universitaire, service public

Un dernier élément entre en compte : les recherches réalisées avec des deniers publics ne doivent-elles pas être rendues accessibles à tous ?

Les Etats Unis d’Amérique viennent de franchir ce pas, par l’adoption du Federal Research Public Access Act qui exige de toute agence fédérale dont le budget dépasse 100 millions de dollars qu’elle mette en œuvre une politique d’accès libre assurant la mise sur Internet de tout article résultant d’une recherche subventionnée par cette agence au plus tard six mois après sa publication. L’agence doit obtenir de chaque chercheur qu’il dépose une version électronique de son article accepté pour publication dans un journal revu par des pairs. Elle doit assurer la préservation durable du manuscrit sous forme électronique et son accès permanent, libre et gratuit pour tous.
http://cornyn.senate.gov/index.asp?f=record&lid=1&rid=237171/.

La Communauté européenne se penche actuellement sur l’identification d’un moyen d’arriver au même objectif : rendre au public ce qui a été obtenu avec des deniers publics.
http://europa.eu.int/rapid/pressReleasesAction.do?reference=IP/06/414/.

Enfin, quand on considère bien tous les éléments positifs de la publication en libre accès (rapidité, efficacité, universalité du lectorat potentiel, référence rapide par lien électronique, utilisation de techniques inapplicables à la publication sur papier telles que les animations, les films, etc; connaissance permanente des documents où nos propres travaux sont cités), on comprend que la voie est tracée, que le mouvement est irréversible et que désormais, les scientifiques vont se tourner vers ce nouveau mode de publication. Un nouveau paradigme est né, et avec lui une nouvelle ère de la recherche scientifique.

Il est essentiel que les enseignants, à l’Université, soient des chercheurs de grande qualité. Il est donc normal que les aptitudes à la recherche, facilement évaluables, soient bien documentées dans les arguments en faveur d’une nomination au rang de chargé de cours à l’ULg. On ne saurait transiger avec cette nécessité.

Mais par ailleurs, nous voulons que nos enseignants soient irréprochables quant à leurs aptitudes pédagogiques. Et là, l’évaluation est plus difficile. Certes, l’évaluation par les étudiants est extrêmement indicative. En aucun cas, nous ne pouvons poursuivre une procédure de nomination d’un candidat dans le corps académique, aussi bonchercheur soit-il, qui contreviendrait de manière flagrante aux exigences que nous avons (et elles sont nombreuses!) en termes de respect de l’étudiant qui, lui, peut attendre un service de formation de qualité. Ce n’est qu’en remplissant ces conditions que nous serons en mesure d’exiger des étudiants le respect de leurs propres obligations. Mais il est clair qu’au delà de cette évaluation essentielle, il devrait y en avoir une autre, réalisée par des spécialistes. Une réflexion s’impose en cette matière.

Afin de veiller à assurer cette qualité, une période « probatoire » de 3 ans est prévue avant une nomination définitive. Cette période est ramenée à 2 ans pour les mandataires permanents du FNRS qui ne peuvent bénéficier que d’un congé de cette durée sans perdre leur mandat. Elle peut être annulée pour les premiers assistants ou chefs de travaux de l’Institution qui ont une expérience avérée de l’enseignement et ont, à ce titre, été évalués. Il serait logique de faire bénéficier de cette réduction les mandataires permanents du FNRS qui ont consacré une part significative de leur temps à des missions d’enseignement.

L’expérience nous montre aujourd’hui que, s’il est le plus souvent largement suffisant d’attendre 3 ans pour prendre une décision définitive, c’est parfois un peu tôt, en raison de divers problèmes et que l’on peut souhaiter voir prolonger cette période pour « en avoir le cœur net ». Par décret, la période « probatoire » est prévue pour une durée maximale de 5 ans. A l’ULg, on a choisi de la limiter à 3 ans. Pour éviter des éliminations dans le doute, je ferai la proposition d’allonger cette période à 5 ans, avec la possibilité (sans aucun doute, dans la majorité des cas) de statuer après 3 ans, tout en maintenant les exceptions précitées. Il est important que l’on comprenne qu’il ne s’agit nullement ici de retarder la décision. A mon sens, la période de 3 ans est déjà fort longue. Cette mesure ne visera qu’à éviter de nous séparer de personnalités qui n’ont pas réellement pu faire leurs preuves, pour quelque raison que ce soit. En effet, l’annonce officielle d’une nomination pour 3 ans ne nous laisse aucunement la latitude d’augmenter, fut-ce exceptionnellement, cette durée en cas de doute.

Notre seul guide doit être notre désir d’exceller dans toutes nos missions. L’excellence en recherche est indispensable à la réputation de qualité de notre Maison, elle doit nourrir la qualité de la formation que nous donnons à nos étudiants. On ne peut espérer que tous les chercheurs de haut niveau soient également des pédagogues accomplis. A tout le moins peut-on prétendre qu »ils aient le respect de leurs étudiants et qu’ils fassent tout ce qui est en leur pouvoir pour transmettre leur savoir, leur rigueur et leur excellence aux nouvelles générations dans les meilleures conditions. Le chercheur qui considère que son excellence scientifique suffit et justifie tout, en particulier une négligence de ses tâches de formation, à tous les niveaux d’études, n’a pas sa place chez nous.

Mais soyons bien clair : rares sont ceux qui peuvent exceller tout à la fois en recherche, en enseignement et dans les services qu’ils rendent à la communauté. Tant mieux si c’est le cas. Mais on peut aussi comprendre que chacun veuille consacrer des périodes successives de sa carrière à chacun de ces aspects ou à deux des trois, faute de pouvoir assurer les trois de front. L’important est de pouvoir démontrer que chaque membre du corps académique de l’Institution possède les aptitudes nécessaires à chacune des missions universitaires. A un moment donné, ce n’est qu’une question de choix et non d’aptitude. C’est dans cet esprit que je soutiens le choix de chacun.

« Universities are no longer capable of producing valuable innovations. The specialists inside their field patiently toil ahead, but create little innovation. New ideas arise where different disciplines touch each other, and innovation is created across traditional institutional boundaries. Specialization is standing in the way of creativity and progress. We need to integrate knowledge domains across disciplines, open communication channels between experts, and rid ourselves of institutional and conceptual boundaries. »

Richard Hawkins, senior strategist at TNO, The Netherlands.

Discours prononcé le 30 mars 2006, lors de la séance solennelle de remise des insignes de docteur honoris causa à l’Université de Liège.

Cet article est transféré dans la rubrique “Pages”, en haut et à droite de ce blog.

Dans une société où le profit règne en maître, le financement public de l’enseignement en général et celui de l’Université en particulier laisse de plus en plus à désirer, à tel point que la qualité-même de la formation des jeunes est gravement menacée, de même que la formation permanente des adultes tout au long de leur vie (formation non subventionnée !), ce qui nous place dans une position peu enviable par rapport à la majorité des autres pays européens et nord-américains, voire même des pays dits « émergents » ou « en développement ».

Il s’agit de choix et d’options politiques de gouvernance publique. J’en resterai là.

Quoi qu’il en soit, cette carence a obligé les universités à revoir leur propre politique d’acquisition de moyens de fonctionnement afin de ne pas voir décliner la qualité de leurs missions.
Auparavant, les découvertes issues de la recherche universitaire étaient tout simplement rendues publiques par les articles que publiaient les chercheurs. Ceci permettait une bonne diffusion de l’information et des progrès du savoir.
Aujourd’hui, si ceci reste vrai pour ce qui concerne les recherches dont on voit mal les champs immédiats d’application, les choses ont changé pour ce qui est des recherches applicables ou potentiellement applicables. De plus en plus, ces recherches sont « valorisées » et rapportent, dans une mesure très variable, des moyens à l’Université et au département ou au centre, ainsi qu’aux chercheurs qui ont pris les mesures adéquates.

On aime ou on n’aime pas ce mode de fonctionnement, mais on ne peut nier qu’il soit juste que la propriété intellectuelle des découvertes et inventions puisse être affirmée, réclamée, protégée et défendue. Cette évidence est encore renforcée dans un contexte où la recherche publique est notoirement sous-financée. Au sein de l’Université, peu de chercheurs ont les moyens et/ou le savoir-faire nécessaires pour assurer seuls ces démarches. Moins encore sont disposés à y consacrer du temps et nous parlons ici de beaucoup de temps.

Les universités ont donc mis sur pied des dispositifs permettant de soulager les chercheurs de ces tâches — en bonne partie du moins, leur expertise restant indispensable — et de professionnaliser cette fonction. C’est ainsi que sont nés à l’ULg ses « outils » de valorisation: l’Interface Entreprises-Université il y a quinze ans, Gesval puis SpinVenture, Science Park Service, SPS, WSL, GIGA et Aquapôle plus récemment et dernièrement CIDE.

• L’Interface a pour tâche d’identifier au sein de l’Université les recherches valorisables, de construire un réseau de relations avec les entreprises et d’établir le contact entre les chercheurs et les entreprises afin de trouver les meilleures voies de valorisation de la recherche universitaire. Ceci implique une activité prospective, mais également une activité pédagogique et d’animation technologique, l’organisation de conférences, colloques, séances de travail permettant d’augmenter les chances de rencontre et de collaboration entre l’ULg et le monde des entreprises, privées ou publiques.

• Gesval est une s.a. dont l’ULg est l’actionnaire principal, à 99,9%. Son rôle est l’évaluation technico-économique des développements universitaires, l’aide à la prise de décision en matière de brevets, la recherche de partenaires pour la valorisation, la négociation et la rédaction de contrats de transfert et enfin, l’aide à la décision avant la création et le suivi d’entreprises « spin-off ».

• SpinVenture est une s.a. dont l’ULg et Meusinvest sont actionnaires paritaires et dont le but est d’aider les chercheurs à trouver le capital d’amorçage pour la création d’une spin-off au cas où cette voie de valorisation a été considérée comme la plus adéquate.

• SPS est également une s.a. de l’ULg et de Meusinvest qui a pour mission d’offrir des espaces immobiliers pour les entreprises de haute technologie qui souhaitent une proximité étroite avec l’Université.

• WSL, GIGA et Aquapôle sont des incubateurs de haute technologie pour les entreprises naissantes dans les domaines de l’ingeniérie, de la biotechnologie et de l’eau, qui favorisent l’interaction permanente et étroite entre entreprises et centres de recherche universitaires.

• CIDE est une asbl créée par l’ULg et Meusinvest en vue de soutenir activement l’innovation et la création d’entreprises dans notre région. Au sein de CIDE sont regroupées les compétences de SEED-ULg, qui fut créé par le Prof. B. Surlemont au Centre d’entreprenariat de HEC-ULg, et celles de PI2, ou centre Patlib, lui-même intégré à l’Interface.

L’ULg encourage tous ceux qui, parmi ses chercheurs s’interrogent sur le caractère nouveau d’une technologie, ou sur la liberté qu’ils ont de l’exploiter, à recourir à l’instrument PI2 (Propriété Intellectuelle et Innovation), extrêmement performant à cet égard. Intégré dans un réseau européen de plus de 300 centres du même type, PI2 est officiellement reconnu par l’Office européen des brevets (OEB) et par l’office national belge des brevets: l’Office de la Propriété Intellectuelle (OPRI).
PI2 étant maintenant incorporé dans CIDE, c’est là qu’il convient de s’adresser lorsque l’on veut répondre de la meilleure manière aux appels à projets de la Région Wallonne, par exemple, qui pose clairement, dans ses formulaires, la question de la nouveauté et de la liberté d’exploitation. Cette opportunité existe également pour les chercheurs des autres universités, centres de recherche ou entreprises qui ont le loisir de profiter des performances de PI2. L’ULg a pris un abonnement à PI2 pour ses membres et d’autres peuvent évidemment en faire de même.

Mais il est important de savoir que la gestion de la propriété intellectuelle de l’ULg n’est pas l’affaire de PI2, pas plus que le suivi des procédures liées à la prise et au maintien de brevets. Cette gestion est prise en charge par l’ULg qui la confie à Gesval car c’est là qu’est accompagné tout le processus de valorisation, depuis le recueil des annonces d’invention jusqu’au suivi des licences d’exploitation. Gesval aura alors éventuellement recours à PI2 pour la recherche des informations liées au marché.

http://www.cide.be/


Looking for seed funding!
(Photo Grant Heffernan, www.photoslave.com/ journal/2002/09.html)

« Page précédentePage suivante »