J'intervenais hier à l'Université d'Orsay au sujet de la publication scientifique à l'ère du numérique, et j'ai notamment parlé de l'Open Access. J'ai notamment cité PLoS (Public library of science) et LMCS (Logical methods in Computer science), ainsi que les archives ouvertes comme HAL et arXiv.

Une personne de la salle, chercheuse ou enseignante-chercheuse en biologie, est intervenue pour dire que ma présentation

  1. Ignorait les coûts de l'open access et le risque, déjà avéré d'après elle, que les chercheurs de laboratoires mal dotés financièrement n'aient pas les moyens de publier dans ces revues, parfois bien cotées en termes de facteur d'impact, et soient donc mal évaluées, donc mal dotées financièrement. Cercle infernal.

  2. Était exagérément naïve au sujet du rôle de la publication scientifique, qui sert principalement à l'évaluation des chercheurs et des laboratoires et non à la diffusion du savoir.

  3. Était exagérément optimiste au sujet des archives ouvertes et de leur usage pour déposer des articles non passés devant un comité de lecture : ceux-ci, dont la fiabilité est non assurée, ne sauraient être utilisés par des chercheurs (après un instant de réflexion, elle a ajouté « dans ma discipline »).

Sur le premier point, je relève que LMCS n'exige de paiement ni pour publier, ni pour accéder aux articles. Ils peuvent se permettre cela grâce à une structure de coûts minimaliste : secrétariat largement automatisé (comme, de toute façon, la majorité de la publication en informatique), mise en page par les auteurs (comme, de toute façon, la grande majorité de la publication en informatique, y compris chez les grands éditeurs commerciaux et les sociétés savantes du domaine), hébergement chez arXiv. J'aimerais donc savoir où passent les frais de publication, entre $2000 et $3000 par article, que facture PLoS : quelle est leur structure de coûts ?

Je note également que PLoS permet aux auteurs de solliciter une exemption de frais de publication. Je sais bien que c'est en priorité destiné aux chercheurs des pays émergents et que c'est sans doute humiliant de dire « je suis chercheur en France dans un labo mal coté donc mal financé », mais c'est une possibilité.

Sur le second point, comme je l'ai dit hier, évidemment, l'utilité principale des revues, de nos jours, n'est pas de diffuser l'information (il suffit pour cela de mettre les articles sur le Web et d'utiliser Google), mais de classer les articles et de produire des indicateurs bibliométriques permettant de classer chercheurs et laboratoires. Mon interlocutrice a expliqué que les revues des grands groupes sont incontournables : déjà bien classées, elles bénéficient d'un a priori favorable pour les évaluateurs et de facteurs de pondération importants dans les indicateurs bibliométriques.

C'est un problème certain : tout nouvel entrant dans le monde des journaux débute avec un facteur d'impact nul, et les journaux disponibles uniquement en ligne sont souvent suspectés de manque de sérieux (sans doute la raison pour laquelle LMCS a pris soin de recruter diverses stars dans son comité éditorial ). Cependant, il me semble que ce problème, plutôt que d'être un problème d'open access, est à mon avis plutôt un problème de mœurs de communauté scientifique. C'est aux biologistes, dans leur ensemble, à cesser ce fétichisme de la publication dans Nature, Science et les « grandes revues classées » s'ils en ont assez de payer les frais de ces revues.

Enfin, concernant les archives ouvertes. Des milliers de physiciens, de mathématiciens etc. scientifiquement sérieux utilisent des articles pris dans arXiv. Ils savent bien que ces articles ne sont pas passés devant un comité éditorial, mais cela n'interdit pas de reprendre des idées (rappelons que la preuve mathématique est censée se suffire à elle-même). On peut utiliser avec succès des informations sans pour autant devoir leur faire pleinement confiance.

Surtout, il y a de grandes quantités de faits scientifiquement intéressants qui ne sont pas publiables. La publication scientifique, au moins en informatique (mais, je crois, dans la plupart des domaines) est axée sur les résultats positifs : il est impossible de publier un résultat du type « j'ai essayé telle approche, cela a donné des résultats négatifs », sauf en faire-valoir préliminaire pour pouvoir continuer par la présentation d'une nouvelle technique qui résout le problème (la seule exception que je connaisse à cela est la publication de résultats d'impossibilité théorique, notamment en logique, calculabilité et complexité). Or, il est intéressant de savoir que quelqu'un a un jour essayé sans succès une technique, afin de ne pas perdre de temps à essayer exactement la même.

Ce qui m'a un peu attristé avec ces remarques et leur ton quelque peu « vous n'y êtes pas, dans la recherche scientifique on fait comme ceci », c'est que j'avais justement pris soin dans mon exposé d'expliquer que ce qui fonctionne dans une discipline ne fonctionne pas forcément dans une autre, que ce qui est utile pour l'un (par exemple : Web of Science) ne l'est pas forcément pour l'autre. Cela fait des années que je déplore que certains assimilent l'ensemble de la recherche scientifique au cas de la biomédecine : que ce soit en terme de recherche documentaire (ma formatrice CIES en recherche documentaire qui ne semblait pas comprendre que l'ensemble des disciplines ne fonctionne pas comme la biochimie), d'évaluation de la recherche (la bibliométrie est peut-être adaptée à des disciplines à la publication pléthorique et aux articles avec de nombreux co-auteurs, mais ce n'est pas le cas de toutes), d'éthique, etc.

Cette assimilation de l'ensemble de la recherche scientifique au cas de la biologie me paraît d'autant plus dommageable que les témoignages que j'entends sur l'organisation de cette discipline depuis 15 ans sont peu flatteurs : étudiants surmenés, utilisés comme laborantins et trouvant difficilement des emplois ; mandarinat exacerbé ; grosses structures inhumaines... Pourquoi vouloir en faire un modèle à suivre ? (création de méga-laboratoires, bibliométrie à tout crin...)