La vie est mal configurée

Aller au contenu | Aller au menu | Aller à la recherche

Recherche scientifique

Fil des billets - Fil des commentaires

jeudi, novembre 1 2018

Sur le plagiat scientifique

Dans mon billet précédent j’ai évoqué le plagiat de généralités introductives, qui présentent un domaine, une technologie, une application, mais je n’ai pas évoqué le plagiat du contenu scientifique proprement dit.

Les articles sur le plagiat, notamment en lettres, sciences humaines et sociales, évoquent le « copier-coller » : des mémoires, des thèses, des articles, des livres, qui reprennent verbatim du texte publié ailleurs, sans qu’il ne s’agisse de citations dûment attribuées aux auteurs du texte original. Cela m’étonnait, car le copier-coller est facilement détectable par de simples recherches informatiques, il existe même des logiciels spéciaux pour cela (tels que Compilatio).

Toutefois, ces logiciels, en général, ne détectent que les plagiats de documents disponibles en ligne (ou fournis dans une base de documents privée, par exemple les mémoires publiés les années précédentes dans la même université) ; ils ne détectent pas les plagiats de documents publiés uniquement sous forme papier, ou uniquement disponible derrière des paywalls. Par ailleurs, même si ces logiciels existent, encore faut-il qu’ils soient utilisés. Si leur usage est maintenant obligatoire à la soumission d’une thèse dans certaines universités (dont la COMUE Université Grenoble Alpes), ce n’est pas le cas partout… et par ailleurs je ne les ai jamais utilisés lorsque j’évaluais des articles pour des revues ou des conférences, peut-être à tort.

Le copier-coller, facilement détectable par des moyens automatisés, est risqué. Aussi le plagiaire un peu moins naïf prendra soin de paraphraser le texte avec plus ou moins de servilité. J’ignore d’ailleurs à quel point d’éloignement du texte d’origine on ne peut plus parler de plagiat au sens usuel du terme, et où la justice jugerait qu’il ne s’agit plus d’une contrefaçon.

Dans le cas des publications scientifiques, il y a une autre forme de plagiat : le plagiat d’idées. Il s’agit de reprendre sciemment des idées d’autres personnes et de les faire passer pour siennes, sans pour autant reprendre des textes. Il ne s’agit alors plus d’une contrefaçon au sens du droit d’auteur, puisque les idées sont de libre parcours.

Relevons tout d’abord qu’il arrive souvent que les mêmes idées soient publiées par des auteurs différents en toute bonne foi. Le volume des publications scientifiques est considérable, on ne peut pas avoir tout lu sur un sujet. De plus la communauté scientifique est morcelée en disciplines, sous-disciplines et thématiques, de sorte que ce qui porte un nom et est expliqué dans un certain formalisme dans une thématique de recherche peut porter un autre nom et être expliqué autrement dans une autre thématique. J’ai assisté à des colloques dont le but était justement d’obtenir que des chercheurs de deux thématiques puissent se parler et se comprendre, et parfois on découvrait qu’un procédé utilisé dans un domaine était au fond le même que celui décrit sous un autre nom dans un autre domaine !

À d’autres époques, les barrières de langues ont également joué : un chercheur soviétique publiant en russe n’était pas forcément au courant de ce que des Canadiens publiaient en anglais, et vice-versa. (Il y avait d’ailleurs quand j’étais étudiant des rumeurs selon lesquelles des chercheurs occidentaux comprenant le Russe faisaient carrière en republiant des idées théoriques trouvées dans des comptes-rendus de l’époque soviétique ; je n’ai aucune idée de si cela est arrivé.)

Dans ces conditions, il est très possible pour des auteurs peu scrupuleux de prendre des idées déjà publiées et de les reprendre sous un autre nom et dans un autre formalisme. Pour prendre un exemple concret, un de mes travaux récents peut aussi bien être expliqué dans un formalisme de transformation de formules logiques que dans un formalisme d’interprétation abstraite, qui au fond veulent dire la même chose mais qui seront superficiellement différents ; à mon avis, deux auteurs différents auraient pu publier cette même idée sous ces deux formes et on ne s’en serait pas rendu compte, ou du moins seulement après réflexion. Qui plus est, il est toujours possible de plaider l’ignorance des travaux précédents, surtout avec les différences de vocabulaire et de formalisme !

La pire forme de plagiat d’idées dont j’ai eu vent m’a été rapporté par un chercheur, qui avait assisté à la scène suivante chez un « ponte » du domaine. Le mandarin, dans un comité éditorial, donnait à évaluer un article à un de ses doctorants en lui donnant comme consigne de le rejeter, mais de reprendre les idées pour les implanter et les publier. Des collègues, dans d’autres disciplines, ont évoqué le cas d’idées dans des demandes de financements, dont l’évaluation est en théorie confidentielle : les demandes ont été rejetées, mais les idées exploitées par d’autres.

Il est d’ailleurs parfois bon d’être prudent quand on discute d’idées non publiées avec des collègues. J’ai tendance à être plutôt ouvert et à dire sur quoi je travaille, mais cela n’est pas forcément une bonne idée. Des collègues qui avaient un peu trop bavardé en conférence ont eu la surprise de voir leurs idées publiées par leur interlocuteur ! Mon avis serait de se méfier de collègues qui posent beaucoup de questions sur les travaux en cours, mais sont évasifs concernant ce qu’ils font à ce sujet.

De la malhonnêteté scientifique en informatique

On a beaucoup parlé ces derniers temps de fraude scientifique. Toutes les « affaires » concernaient, me semble-t-il, la biologie ; j’aimerais ici esquisser ce qui pourrait relever de la fraude dans ma discipline, l’informatique, et des disciplines connexes.

En premier lieu, un avertissement. Lorsque l’on parle d’erreurs dans des publications scientifiques, on glisse parfois un peu rapidement de l’idée d’erreur à l’idée de fraude. Or, il est tout à fait possible de commettre des erreurs en toute bonne foi. L’idée d’erreur elle-même mérite d’être nuancée : l’erreur scientifique, du moins dans mon domaine, consiste souvent non pas en quelque chose de vraiment faux, mais plutôt en quelque chose qui n’a pas la portée que la publication laisse supposer ; je vais expliciter cela.

Mon sentiment général est d’ailleurs qu’il existe toute une gradation entre la publication la plus honnête et rigoureuse et la publication franchement frauduleuse, passant par diverses négligences, choix avantageux de cas d’études, exagérations, désir de ne pas trop explorer ce qui pourrait conduire à d’autres résultats… Tout ceci est d’ailleurs encouragé par le système de publication scientifique, de recrutement, de promotion et de financement des chercheurs ! Si j’écris un article où j’explique que ma méthode n’est qu’une amélioration de travaux précédents, produisant un gain modeste de performances et que je le soumets à une revue ou conférence de premier plan, il sera probablement rejeté ; si au contraire je présente mon approche comme très novatrice avec un gain important de performances, il sera accepté ; or de l’un à l’autre il n’y a qu’une question de présentation et de choix d’exemples... L’accumulation de publications « cotées » me permettra d’avoir un bon dossier pour demander une promotion, un financement, etc. (même si d’autres facteurs sont considérés).

Revenons à la question des publications en informatique. Il est périlleux de parler en généralités sur une discipline qui recouvre en réalité des sous-disciplines si diverses ; toutefois je ne pense pas me tromper en disant qu’un article ou une thèse d’informatique comprend en général :

  1. Une introduction (longue dans le cas d’une thèse, parfois très brève dans un article) présentant le domaine, les questions que l’on entend soulever ou résoudre, l’intérêt technologique, social ou économique de ces questions et des solutions apportées, les travaux scientifiques connexes, et un résumé des principales contributions.

  2. Des contributions théoriques : descriptions d’algorithmes, preuves de correction ou de complexité de ces algorithmes, définitions mathématiques, théorèmes mathématiques et preuves de ces théorèmes, etc.

  3. Une évaluation pratique, typiquement des chronométrages de temps de calcul sur une batterie d’exemples.

Voyons ce qu’il en serait des fraudes pour chacun de ces aspects.

Introductions d’articles

Dans les présentations de domaines scientifiques dans les rapports et thèses on trouve parfois des plagiats. En effet, ces présentations portent sur des généralités et non sur les travaux spécifiques de l’auteur, et il est tentant de reprendre des textes, schémas etc. trouvés dans d’autres documents. Il est toutefois périlleux de copier-coller depuis des documents trouvés sur le Web, car il est alors facile de retrouver les passages qui semblent « rapportés » ; cette recherche est d’ailleurs automatisée par des logiciels tels que Compilatio, installés dans les universités. Il est bien entendu plus délicat de retrouver la paraphrase ou l’inspiration non créditée. Il ne faut également pas crier au plagiat ou à l’« auto-plagiat » (reprise par un même auteur de textes identiques dans plusieurs publications, afin de multiplier celles-ci sans apport scientifique) si les textes similaires ne concernent que des définitions standard… il n’y a pas trente-six façons de dire, par exemple, qu’un treillis est un ensemble ordonné dont toute paire d’éléments admet une borne supérieure et une borne inférieure !

La présentation des questions résolues est parfois trompeuse (sciemment ou non). En effet, on peut très facilement faire apparaître un résultat comme ayant une portée plus importante qu’il n’en a réellement, par exemple en ne précisant pas certaines restrictions ou définitions ; par exemple, on peut dire que le résultat obtenu est « optimal », mais en ne précisant pas la notion d’optimalité ou complétude utilisée ou les hypothèses sous-jacentes, qui seront plus loin dans l’article. Le lecteur qui se limiterait à l’introduction pourrait en concevoir une idée plus haute des résultats que la réalité.

Les possibles applications technologiques, notamment dans les thèmes à la mode du moment, sont parfois exagérées. J’ai une fois été dans un comité de programme d’une conférence où nous avons accepté un article par ailleurs scientifiquement solide, mais à condition que les auteurs ôtent de leur introduction des perspectives d’applications trop distantes et incertaines.

L’exposé des travaux voisins est un art difficile. Si l’on oublie un travail pertinent, on risque de se faire des ennemis des auteurs vexés et de leurs amis ; cela peut être rédhibitoire. Toutefois, si l’on mentionne des travaux équivalents, la contribution pourra être considérée comme trop mineure. Il s’agira donc de rendre hommage à des travaux tout en expliquant que ce que l’on fait est mieux ou différent, mais si l’on dit trop que c’est mieux on risque de vexer, donc le mieux est d’expliquer que c’est différent. Tout ceci peut être un peu trompeur.

Résultats théoriques

Il paraît a priori difficile de tricher dans des preuves mathématiques : ce n’est pas comme une expérience que l’on peut inventer. Toutefois, il est possible de se tromper...

Un raisonnement mathématique est très rarement parfaitement rigoureux au sens que l’on expliciterait chaque recours à une définition ou à une règle de déduction. En effet, des preuves mathématiques rédigées à ce niveau de détail seraient interminables et incompréhensibles pour un lecteur humain (c’est d’ailleurs pourquoi, si on veut en arriver là, on a recours à un « assistant de preuve », un outil informatique qui vérifie la preuve à son plus haut niveau de détail). Une preuve mathématique usuelle passera au contraire rapidement sur des étapes de raisonnement que tout lecteur du domaine pourrait reconstituer et détailler si besoin.

Parfois, cela se voit à certaines tournures : quand l’on fait une hypothèse « sans perte de généralité », on veut que ramener le cas général au cas particulier étudié se fait par une transformation et une justification suffisamment simples pour que le lecteur ne voie pas de problème à ce qu’on les omette. Dans certains cas, on dira qu’une preuve est la même qu’une autre mutatis mutandis, c’est-à-dire « en changeant ce qui doit être changé »…

Parfois, malheureusement, on commet une erreur. On pense qu’une étape est évidente alors qu’il y a un problème, on prend des quantifications logiques dans le mauvais sens, on se mélange dans les indices, on applique un théorème en oubliant une de ses hypothèses… Georges Gonthier cite même le cas d’un théorème dont la preuve est fausse car s’appuyant sur une erreur d’imprimerie !

Si l’on peut se tromper ainsi de toute bonne foi, on peut certainement le faire volontairement. Il doit également exister des cas intermédiaires, du style « ce résultat semble se déduire de tel résultat dans tel article, et nous n’allons pas chercher la petite bête en vérifiant toutes les conditions au risque de tomber sur un os technique qui prendra du temps à résoudre » — autrement dit on ne commet pas sciemment une erreur, mais on est sciemment négligent au risque d’une erreur.

Pour prendre un exemple concret, il m’est arrivé d’évaluer un article où, dans une démonstration, les auteurs invoquaient un théorème « trop beau pour être vrai ». Je suis allé voir en bibliothèque le livre d’où ils tiraient ce résultat, j’ai vu qu’ils avaient omis en le citant une hypothèse, non vérifiée dans leur cas. Erreur volontaire ou involontaire ?

Par ailleurs, même si un résultat théorique est prouvé rigoureusement, il reste la question de son interprétation informelle, qu’il est possible d’exagérer ! En effet, un résultat théorique porte sur un modèle d’une partie de la réalité, modèle qui peut être imprécis voire passer à côté de l’essentiel, partie de la réalité qui peut être trop restreinte…

Résultats pratiques

Il s’agit ici en général de programmer les algorithmes proposés, puis de les essayer sur des jeux d’exemples afin d’évaluer leur efficacité et leur précision en pratique.

On peut être surpris du recours à une évaluation pratique dans le cas de l’algorithmique, puisque l’on fournit déjà des preuves mathématiques. Il y a plusieurs raisons pour ceci. Tout d’abord, deux algorithmes apparemment équivalents du point de vue de certaines analyses de complexité peuvent avoir des coûts très différents en pratique. Par ailleurs, dans certains domaines on sait que la complexité pire cas de tous les algorithmes est prohibitive, voire qu’il n’existe pas de procédé algorithmique qui fonctionne dans tous les cas : aussi on voudra distinguer différentes propositions suivant ce qui se passe sur des cas réalistes, quelle proportion de cas seront résolus en combien de temps.

Une première difficulté est donc de choisir des cas d’essais réalistes, au sens de représentatifs de ce que les utilisateurs du procédé algorithmique proposé voudraient pouvoir résoudre. Parfois on prend des exemples « synthétiques » plus ou moins aléatoires, mais rien ne dit que ceux-ci soient représentatifs des situations réelles ! Il est tentant de proposer comme exemples « représentatifs » ceux sur lequel l’algorithme proposé dans l’article est particulièrement efficace…

La constitution de bibliothèques d’exemples (SPECint, SMT-LIB etc.) pallie en partie ce problème mais en crée d’autres. En effet, les chercheurs visent alors à résoudre les exemples dans la bibliothèque et non ceux des situations réelles… On a même vu des concepteurs tenter de détecter certains des exemples standard et dans ce cas appliquer des procédures spéciales, un peu comme les véhicules Volkswagen qui détectaient qu’ils étaient sur le banc d’essai antipollution et appliquaient un programme spécial de carburation.

Se pose ensuite le problème de la comparaison aux autres méthodes. Ceci suppose soit de se procurer d’autres outils implantant les méthodes auxquelles on se compare (outils souvent indisponibles, non maintenus, sans documentation…), ou d’implanter soi-même les méthodes en question. Il est alors possible d’implanter ces méthodes de façon stupide, inefficace, tandis que la nouvelle à laquelle on les compare sera implantée intelligemment…

Ainsi, même en rapportant sincèrement des résultats d’expériences réellement conduites, il est possible d’induire le lecteur en erreur, du fait de la non représentativité de ces expériences. Il y a, à mon avis, toute une continuité entre les petites omissions et le choix d’exemples plutôt favorables à la nouvelle méthode et l’invention complète de résultats, comme on peut malheureusement le soupçonner dans le cas de certains articles.

De nos jours, certaines conférences d’informatique suggèrent fortement, voire dans certains cas imposent, la soumission d’artefacts, c’est-à-dire d’un composant logiciel intégrant les outils et les exemples permettant à une équipe d’évaluateurs de reproduire les résultats de l’article, voire d’essayer la méthode sur d’autres exemples. Bien entendu, ce n’est pas une solution totale, mais cela met un peu de rigueur dans le processus.

En conclusion

Il y a toute une gradation entre l’honnêteté complète et les résultats fabriqués. Certaines décisions sont parfaitement humaines et explicables : par exemple, si une méthode a une faiblesse, on va éviter de trop la souligner afin de ne pas donner des verges pour se faire battre… D’une façon générale, cela fait partie de l’exercice que de manifester un certain enthousiasme pour le nouvel algorithme proposé. De là l’on glisse à ne plus mentionner les faiblesses, à exagérer les points positifs, à sélectionner les exemples, à omettre de préciser certaines conditions de mesure… La pente est facile !

dimanche, octobre 7 2018

Sokal squared : une totale confusion

Les réseaux sociaux scientifiques bruissent d’un scandale : des chercheurs ont intentionnellement écrit des articles scientifiques ridicules, et qui auraient dû être rejetés par un comité éditorial un tant soit peu scrupuleux, et ont pu les faire publier dans des revues traitant notamment de questions de genre. Leur but était de démontrer que les revues de ces domaines scientifiques publient n’importe quoi à condition que ce n’importe quoi s’inscrive dans les bonnes thématiques, utilise le bon vocabulaire, les bonnes citations, et produise des conclusions conformes aux préjugés idéologiques du champ considéré, reprenant ici les objectifs et la méthode du fameux canular de Sokal.

Les réactions à cette annonce ont été sans surprise. Ceux qui estimaient que certains champs universitaires relèvent de l’opinion et non de la science, et masquent leur manque de justification scientifique sous un vocabulaire pompeux, ont été confortés dans leur opinion : voilà la preuve que leurs intuitions étaient bonnes ! D’autres, dans les champs de recherche visés ou dans des champs voisins, ont dénoncé une manœuvre politique de droite menée par des chercheurs eux-mêmes médiocres, ne démontrant rien, les revues visées n’étant pas centrales dans le champ du savoir visé. On retrouve là encore largement la polémique suivant le canular de Sokal.

Je ne désire pas ajouter du bruit à cette polémique, donc ne pas parler de ce cas d’espèce, mais seulement éclairer la question des publications de mauvaise qualité voire totalement bidon, et leurs conséquences sur le champ scientifique.

J’ai déjà évoqué ici le cas des revues et conférences totalement bidon. Celles-ci ne sélectionnent pas du tout les articles qu’elles acceptent — on a vu des articles générés aléatoirement être acceptés — et visent un but lucratif (frais d’inscription, frais de publication). Elles ne posent finalement guère de problèmes : certes, des fonds ont été dépensés pour aller en conférence à Orlando ou Las Vegas, mais cela ne représente pas une part importante des budgets de recherche ; par ailleurs, la mention de telles publications, dans un dossier de demande de financement ou de promotion ou dans un bilan de laboratoire, vaudra en général des conséquences négatives. Il y a donc des incitations fortes à ne pas publier dans de tels lieux, du moins dans les institutions de recherche dotées de procédures d’évaluation un tant soit peu sérieuses.

Toutefois, dans le cas de l’affaire Sokal ou de la récente affaire sur les études de genre, il ne s’agissait apparemment pas de ces revues totalement bidon et à but lucratif, que personne ne prend au sérieux, mais de revues scientifiques reconnues comme telles, dont certaines étaient éditées par des universités prestigieuses ou recevaient des articles de chercheurs de ces universités. Il me semble qu’il ne s’agit pas de la même question. Voyons donc les problèmes qui se posent si des revues considérées comme sérieuses, même si « peu centrales », publient des articles qui n’auraient pas dû être publiées.

Le premier problème, à mon avis le plus important, serait que des gens se basent sur des conclusions insuffisamment étayées pour guider des activités dont le dysfonctionnement aurait des conséquences sensibles : par exemple, une étude médicale ou pharmaceutique erronées pour prescrire un traitement, un algorithme incorrect utilisé dans un produit ou service, ou encore promouvoir une réforme économique ou sociale… Normalement, on ne base pas un projet avec des conséquences humaines ou financières importantes sur un article scientifique sans l’étudier en profondeur (examiner chaque justification et non seulement les conclusions) et/ou valider soi-même l’utilisation envisagée ; plus généralement on s’en remet plutôt à des articles de revue, résumant les travaux de plusieurs chercheurs, ou des monographies résumant l’état de l’art.

A priori, l’impact d’un article erroné isolé est donc très limité. Toutefois, il arrive parfois que des conclusions erronées soient reprises dans d’autres articles, et finissent, à force d’être reprises partout, par être considérées comme fiables, alors que tout remonte en fait à une unique source originale incorrecte. Richard Feynman cite ainsi (The Seven Percent Solution, dans Surely you’re joking Mr Feynman) le cas d’une extrapolation erronée dans une étude expérimentale sur la désintégration β, reprise par toute une communauté scientifique qui se demandait comment faire coïncider des modèles et des résultats expérimentaux qui différaient… jusqu’à ce que Feynman eût des doutes, reprît les citations et les calculs depuis l’origine et s’aperçût de l’erreur. Il n’est donc pas à exclure que des idées erronées, reprises par une communauté qui se cite elle-même, aient été mises en place dans des politiques publiques ou dans des protocoles médicaux.

Outre ce problème pour la société en général, il y a un second problème, interne au monde scientifique. Les postes de chercheurs et les financements sont en quantité limitée, de sorte que ceux qui sont attribués à un sujet ne le sont pas à un autre. Un domaine de recherche médiocre et qui s’auto-entretient par des citations, invitations d’articles, et renvois d’ascenseurs divers peut nuire à la science en général de part les ressources qu’il accapare. Ces inconvénients internes au monde scientifique peuvent d’ailleurs produire des effets qui lui sont extérieurs : obligation pour des étudiants de suivre des cours sur la théorie évoquée, voire d’être notés en fonction de leur adhésion à celle-ci ; mise en place de politiques publiques ou de procédures médicales suivant les prescriptions du champ (le Lyssenkysme est un cas exacerbé de ce phénomène, étant soutenu par un pouvoir totalitaire). Tout ceci relève donc de problèmes systémiques, mettant en jeu un champ scientifique et non telle ou telle revue dysfonctionnelle.

Il me semble que certaines analyses qui ont été faites suite à des publications scandaleuses mélangent des phénomènes sans grand rapport les uns avec les autres. Par exemple, si l’accusation est l’existence d’un système de promotion de recherches sans valeur scientifique à l’intérieur de certaines disciplines dans le monde universitaire occidental, il n’est pas pertinent de pointer la publication d’articles générés aléatoirement dans des revues totalement bidon et reconnues comme telles d’un champ de « sciences exactes ».

samedi, mars 17 2018

Ma gestion des conflits d'intérêts

Dans la recherche scientifique, nous avons souvent à nous préoccuper de conflits d’intérêts. On pense évidemment à ceux des chercheurs qui travaillent sur un sujet tel que les produits pharmaceutiques, les pesticides, etc., où il y aurait intérêt à biaiser les résultats des études en faveur de tel ou tel industriel qui financerait les recherches, ou emploierait par ailleurs le chercheur comme consultant (on en trouve facilement des exemples dans l’actualité). Dans mon domaine de recherche, ces problèmes ne se posent guère. En revanche, se pose souvent le problème des conflits d’intérêts lorsqu’il s’agit d’évaluer leurs collègues ou leurs travaux.

Les travaux scientifiques sont évalués avant leur publication en revues, comptes-rendus de conférence, ou ouvrages, du moins chez les éditeurs scientifiques sérieux : le travail répond-il aux standards de qualité de sa discipline ? Quant aux scientifiques (au sens large, j’inclus les universitaires de toute discipline), ils sont évalués, à divers points de leur carrière. Les évaluateurs sont, habituellement, des scientifiques plus ou moins du même domaine (pour évaluer une publication très technique, on prendra des spécialistes, alors que pour évaluer une carrière on pourra prendre des évaluateurs plus loin thématiquement). Fatalement, ces évaluateurs connaissent parfois les auteurs des articles, les candidats aux promotions. Certains critiquent d’ailleurs un fonctionnement « par cooptation » ; mais il est difficile de faire autrement : pour évaluer quelqu’un pour un poste en France, avec un dossier en français et dans le contexte particulier de l’enseignement supérieur et la recherche français, en général il faut un français du même domaine, qui n’est pas si vaste.

Il se pose donc des conflits d’intérêts. Voici donc comment je gère ceux-ci quand c’est moi l’évaluateur.

Le malaise

Il m’est arrivé que l’on me demande de rédiger un rapport sur le dossier d’une personne que j’apprécie beaucoup. Je ne rentrais dans aucune des conditions que l’organisme commanditaire de l’évaluation considérait comme constituant un conflit d’intérêts, et pourtant je me sentais mal à l’aise. Je fis ce travail mais in fine j’aurais préféré que cela fût quelqu’un d’autre.

Premier critère pour moi : je peux refuser une évaluation, même si je ne rentre dans aucun cas officiel de conflit d’intérêts, si celle-ci me met mal à l’aise d’une façon ou d’une autre.

(Par ailleurs, je me suis retrouvé à devoir donner mon avis sur la candidature de quelqu’un dont j’appréciais humainement la compagnie, mais dont la compétence ne me paraissait pas suffisante pour le poste. Cette personne, l’ayant appris, m’en a par la suite durablement voulu. Ce genre de problèmes est également à prendre en compte.)

L’apparence du favoritisme

Imaginons que j’évalue un dossier sans éprouver d’inconfort en le faisant, que je ne rentre dans aucun des cas de conflit d’intérêts identifiés par le commanditaire de l’évaluation. Je risque cependant, dans certains cas, que certains se fassent la réflexion que j’aurais agi par favoritisme ou, au contraire, inimité, s’il y avait entre moi et la personne à évaluer des liens, réels ou supposés, positifs ou négatifs, remettant en cause mon objectivité.

Second critère : éviter ce qui pourrait donner lieu à mauvaise interprétation.

Les critères du commanditaire

Certains commanditaires d’évaluation ont une liste officielle de critères signalant un conflit d’intérêt (par exemple, avoir été directeur de thèse du candidat, avoir co-signé une publication avec lui pendant les 3 dernières années...) ; d’autres non. Dans tous les cas, si j’estime avoir un conflit d’intérêts (réel ou potentiel), j’explique les faits au commanditaire et je le laisse estimer si ceux-ci constituent ou non un conflit d’intérêts en son sens. En effet, je n’ai pas à me substituer à lui en ce qui concerne la politique de son organisme, de son éditeur, de sa revue…

Ainsi, dans ce domaine comme dans d’autres, je sépare bien ce qui relève d’une éthique personnelle (qui, en l’espèce, relève plus du désir d’éviter des situations inconfortables que d’un questionnement purement moral) de ce qui relève d’une question de politique des organismes ou des publications, où je laisse la décision à ceux qui en ont la responsabilité.

vendredi, septembre 22 2017

Les conférences ou revues scientifiques bidons

Les chercheurs en informatique un tant soit peu expérimentés savent qu’il existe depuis longtemps (enfin, au moins depuis une vingtaine d’années) des conférences scientifiques bidons, c’est-à-dire des événements qui se donnent quelques apparences d’un vrai colloque, mais ne contrôlent pas valablement la qualité des interventions. Se sont rajoutées des revues bidons, c’est-à-dire des publications qui se donnent l’apparence de revues de publication scientifique mais qui, là encore, ne contrôlent pas valablement la qualité des articles publiés.

Dans certains cas, le manque de contrôle est tel que des articles générés aléatoirement, et absolument sans sens, ont été acceptés. L’outil SCIgen permet de produire des documents ayant superficiellement l’apparence d’articles de recherche en informatique (présentation, vocabulaire) mais absolument sans aucun sens ; son dérivé MathGen produit des documents ayant superficiellement l’apparence d’articles de recherche en mathématiques (y compris des formules), mais sans aucun sens là non plus. Dans un cas, un « article » consistant en la phrase Get me off Your Fucking Mailing List (« enlevez mon adresse de courrier électronique de votre putain de liste de diffusion ») répétée a été accepté, ce qui indique une absence totale de lecture avant acceptation.

Pourquoi ces revues et conférences bidons existent-elles ?

Sans prétendre lire dans les pensées des organisateurs de ces publications et événements, je soupçonne que leurs motivations sont les suivantes :

  1. Dans certains cas, il s’agit tout simplement d’une activité lucrative : la personne qui assiste au colloque (notamment pour y intervenir), l’auteur d’un article publié, payent une participation aux frais. Il suffit que celle-ci dépasse sensiblement les coûts d’organisation ou de publication pour qu’un bénéfice soit dégagé. (Notons que cela n’est pas propre aux publications bidons : certains grands éditeurs de revues scientifiques dégagent des marges considérables pour les mêmes raisons.)

  2. Dans certains cas, il s’agit d’une activité d’auto-promotion : un groupe de scientifiques ayant du mal à se faire reconnaître monte son colloque, sa revue, où ils s’évaluent les uns les autres.

Quant aux chercheurs qui soumettent des communications à ces revues ou conférences, je pense qu’il existe les cas suivants :

  1. Par inexpérience : ils ne font pas la différence avec une revue ou conférence sérieuse. Ceci me semble d’autant plus probable qu’ils sont écartés des circuits scientifiques habituels.

  2. Dans le cas de conférences organisées dans des endroits « intéressants », ils peuvent vouloir se faire payer un voyage aux frais de leur université, de leur organisme de recherche ou de l’organisme qui finance leurs travaux.

  3. Ils peuvent vouloir, en toute connaissance de cause sur la nullité de la revue ou conférence, allonger leur CV.

Rappelons que les chercheurs subissent une pression constante pour démontrer qu’ils font réellement de la recherche valable. La vérification de cela se fait souvent bureaucratiquement, par l’examen d’une liste de publications et d’autres activités (exposés dans des conférences internationales…). Il y a donc une incitation permanente à multiplier les publications et en tout cas à ne surtout pas apparaître comme « non publiant ». On voit parfois des obligations couperet, par exemple la délivrance d’un doctorat est subordonné à la publication d’au moins un article dans une revue internationale.

Comment distinguer les revues et conférences sérieuses des bidons ?

Il ne s’agit pas d’une science exacte, mais plutôt de l’application de bon sens et d’une connaissance des usages scientifiques. Ce qui suit est issu de mon expérience en informatique, il est cependant possible que certains points s’appliquent à d’autres disciplines.

Prendre l’avis de chercheurs expérimentés

Les chercheurs expérimentés dans un domaine connaissent les revues et conférences habituelles de ce domaine ainsi que leur niveau de sélectivité.

Caveat : ce critère peut encourager à toujours publier dans les mêmes revues rassurantes de quelques grands éditeurs, même quand ces revues sont essoufflées et ne méritent plus la réputation qu’elles ont pu avoir, tandis qu’on ignorera comme suspectes des revues plus jeunes.

L’appel à publications

Les revues sérieuses sollicitent rarement les chercheurs pour qu’ils leur envoient des articles. À l’inverse, les publications bidons envoient des courriers électroniques de masse.

Caveat : il peut arriver que des coordinateurs de numéros spéciaux de revue cherchent à s’assurer d’un nombre suffisant de soumissions et sollicitent leurs collègues.

Les conférences sérieuses envoient un appel à communication, ne serait-ce que parce que les auteurs doivent respecter des dates précises d’envoi qu’il faut rappeler. Cet appel est diffusé via des listes ou sites thématiquement adaptés. À l’inverse, les conférences et publications bidons envoient souvent leurs sollicitations à des chercheurs hors de la discipline concernée.

Des appels répétés, avec décalage des dates de soumission, indiquent que la conférence s’inquiète de ne pas recevoir suffisamment de soumissions. Cela ne veut pas dire que la conférence est bidon, mais plutôt qu’il ne s’agit pas d’un événement des plus prestigieux.

Dans tous les cas, une conférence ou journal sérieux met en avant son comité scientifique (comité de sélection, comité éditorial…).

En revanche, les conférences ou journaux bidons tendent à mettre en avant des critères extra scientifiques tel que leur « facteur d’impact » ou l’indexation de la publication par des systèmes bibliométriques comme SCOPUS, voire Google Scholar — ce qui est d’autant plus ridicule que Google Scholar indexe tout le contenu d’apparence scientifique ouvertement accessible sur le Web. De même, certains journaux peu sérieux indiquent qu’ils sont « prestigieux » — or quand on est véritablement prestigieux, on n’a pas besoin de le dire, tellement cela va de soi.

L'évaluation

Une conférence ou une revue sérieuse doit avoir le temps d'expertiser les articles, ce d'autant plus qu'elle en reçoit beaucoup et que ceux-ci sont longs et techniques. Les referees doivent placer le travail d'évaluation dans un emploi du temps souvent déjà très chargé. Un article accepté en quelques jours n'a donc probablement pas été sérieusement expertisé.

Le lieu de la conférence

Les conférences bidon cherchant à attirer les chercheurs peu scrupuleux en quête de vacances frais payés tendent à être organisées dans des lieux touristiques (Las Vegas, Orlando, les îles grecques…).

Caveat : il peut exister d’excellentes raisons d’organiser une conférence sérieuse dans de tels lieux, notamment la présence d’une bonne capacité hôtelière, de centres de congrès, d’un aéroport bien desservi... Par ailleurs, il ne faut pas oublier qu’un lieu touristique peut avoir des habitants y compris des scientifiques — je suis ainsi allé deux fois en conférence à Venise tout simplement car ces années là c’étaient des collègues de l’Université de Venise qui organisaient.

Le comité scientifique

Une conférence ou journal sérieux fait sélectionner les communications acceptées par un comité composé de scientifiques compétents du domaine, de préférence jouissant d’une certaine reconnaissance de leur pairs. (Cela ne veut pas dire que le comité doit être composé exclusivement de « mandarins », car on sait bien que ceux-ci sont souvent trop occupés pour bien faire leur travail éditorial.)

S’agissant de disciplines où l’on s’attaque à des problèmes qui ne sont pas propres à un pays ou une langue, on s’attend à un comité international. En informatique, cela veut dire qu’il y aura des membres en poste aux États-Unis et/ou Canada, en Europe occidentale et centrale, au Japon et/ou Corée, éventuellement en Australie et/ou Nouvelle-Zélande, en Inde, parfois en Chine, Brésil, Argentine, Chili. Un comité ne comprenant que des membres d’un seul pays peut être suspecté d’être une « bande de copains » pratiquant l’autopromotion.

Caveat : il va sans dire qu’il est normal que le comité d’une conférence française, destinée à faciliter les rencontres, les collaborations et la vie d’une communauté scientifique française, soit principalement composé de chercheurs français.

Les membres du comité doivent être clairement identifiés. En informatique, on donne généralement un lien vers leur page Web professionnelle, qui comprend elle même généralement un lien vers une liste de publications ou d’autres indications démontrant leur activité scientifique.

À l’inverse, les publications et conférences bidons n’indiquent pas leur comité scientifique, ou encore celui-ci est composé d’inconnus.

Caveat : il arrive que des conférences et publications bidons ajoutent des scientifiques sérieux comme membres d’un supposé comité scientifique sans le consentement de ceux-ci (bien évidemment, ils ne sont pas sollicités lors du processus éditorial). Il arrive aussi que des scientifiques sérieux soient bernés : sollicités par un collègue pour être membre d’un comité, ils acceptent et découvrent trop tard qu’ils servent de caution à un processus non respectueux de la rigueur scientifique.

Les sollicitations à être membre du comité scientifique

La sollicitation pour être membre d’un comité scientifique vient ordinairement d’un collègue et non d’une maison d’édition. On peut d’autant plus suspecter une escroquerie si le courrier est exagérément flatteur mais semble ignorer le domaine d’activité précis de la personne sollicitée. Aucune revue respectable ne sollicite des chercheurs « à l’aveuglette » pour peupler son comité scientifique.

Les thématiques

Une conférence scientifique, un revue sérieuse a une thématique d’ensemble bien identifiée, souvent explicitée par une liste de sous-thèmes (voir par exemple l’appel à communications de CAV 2017). Ceci s’explique aisément : dans le cas d’une conférence ou d’une revue destinée à la publication de résultats originaux, et non de vulgarisation, il faut bien que le comité éditorial soit spécialiste des sujets traités ; par ailleurs l’assistance d’une conférence n’est souvent pas en mesure de suivre la présentation de résultats de recherche trop éloignés de ses thématiques.

Caveat : on sollicite parfois, dans une conférence thématique, des exposés hors de cette thématique ; il existe par ailleurs des conférences destinées à des échanges entre plusieurs champs scientifiques. Les exposés sollicités ne sont alors normalement pas des présentations de résultats originaux de recherche, mais plutôt des tutoriels, introductions, exposés de vulgarisation.

À l’inverse, les conférences bidons ont souvent des thématiques vastes et floues, utilisant des termes ronflants mais imprécis (par exemple « cybernétique » ou « systémique »), parfois groupant plusieurs disciplines sans grand rapport, ou encore mettent en avant des mots-clefs à la mode (par exemple Big Data ou Cloud).

Caveat : il existe dans les thématiques à la mode de vrais problèmes scientifiques et il peut donc être légitime d’organiser des conférences dessus. Par ailleurs, dans certaines disciplines scientifiques, il est de coutume d’organiser des grandes conférences à spectre thématique très large, mais qui sont en fait l’agrégation d’un très grand nombre de sessions thématiques, chacune gérée par des spécialistes de leur thème.

Il n’y a bien entendu rien de mal à pratiquer l’interdisciplinarité. Toutefois, les travaux interdisciplinaires posent des problèmes d’évaluation certains. Les domaines flous et mal définis, sans thèmes, méthodes ou communauté scientifique bien identifiée, attirent les escrocs.

L’éditeur ou l’organisation organisatrice

Une conférence organisée par une société savante reconnue (par exemple l’ACM) ou encore des chercheurs d’une université réputée, une revue ou compte-rendu de conférence publié par un éditeur connu (Springer LNCS...), peuvent jouir d’une présomption de sérieux. À l’inverse, il existe des éditeurs, notamment en Inde, spécialisés dans les publications peu sérieuses. Plus près de chez nous, mes collègues de sciences humaines me disent que certaines collections d’un éditeur parisien bien connu relèvent largement d’une publication à compte d’auteur sans véritable filtre éditorial (en clair, l’auteur est publié tant qu’il paye).

Caveat : Ce critère est à manier avec précaution.

  1. On a vu de grands éditeurs publier des ouvrages ou des revues de piètre qualité, des sociétés savantes (je pense notamment à l’IEEE) être insuffisamment regardants…

  2. Ce critère tend à conforter l’oligopole des grands éditeurs scientifiques (Elsevier, Springer) qui font des bénéfices considérables avec l’argent du contribuable.

Le faible rapport avec la fraude scientifique au sens ordinaire

Les revues et conférences vraiment bidons publient n’importe quoi, mais en même temps personne ne consulte leurs articles.

La fraude scientifique au sens ordinaire consiste d’une part à truquer des résultats (prétendre que des expériences ont réussi alors que non, ignorer délibérément que des expériences ont échoué, etc), d’autre part à plagier des résultats existants (ce qui peut d’ailleurs se faire de façon plus adroite qu’un simple copier-coller), dans le but de publier dans des lieux prestigieux, ceci afin de promouvoir sa carrière ou de solliciter des financements.

Or, en informatique du moins, on ne promeut pas efficacement et à long terme sa carrière en publiant dans des revues bidons (si on les liste dans son CV, on se « grille » vite — il ne faut d’ailleurs pas oublier que les collègues parlent entre eux et que les comportements douteux finissent par être connus bien au-delà du laboratoire). Par ailleurs, il n’y a pas besoin d’inventer des résultats enthousiasmants pour publier dans les revues bidons, puisque celles-ci ne vérifient pas le contenu des articles.

Il s’agit donc de deux phénomènes séparés, même s’ils ont une cause commune : la volonté d’embellir CV et compte-rendus d’activité.

mardi, juin 27 2017

Quelques précisions sur les concours de recrutement de chercheurs au CNRS

Il est rare que le résultat des concours de recrutement dans l’enseignement supérieur et la recherche fasse l’objet de polémiques publiques. C’est pourtant le cas des concours de chargé de recherche au CNRS de cette année, plus précisément de ceux de l’Institut des sciences humaines et sociales (InSHS), une des divisions de cet organisme ; on en parle dans Le Monde et sur France Culture ! C’est l’occasion pour moi de revenir sur le déroulement de ce concours.

Quand on parle de concours de la fonction publique, on imagine une suite d’examens écrits et oraux, plus ou moins scolaires, portant sur les connaissances générales et spécifiques attendues du personnel recruté. Les concours de recrutement de chercheurs ne se déroulent absolument pas comme cela.

Le candidat (ou la candidate, bien évidemment) soumet en ligne un dossier comportant d’une part un résumé de ses travaux de recherche précédents (y compris une liste de publications, brevets, etc.) d’autre part un projet de recherche et d’intégration dans des laboratoires du CNRS. En effet, le travail de recherche scientifique, une fois mené, se concrétise principalement sous la forme de publications décrivant les résultats auxquels on est arrivé, dans des revues ou ouvrages spécialisés, après passage devant un comité de lecture et de sélection.

On vérifie d’abord si le dossier est complet et si le candidat vérifie les conditions légales pour concourir, c’est-à-dire la possession d’un doctorat (sauf dispense par une commission scientifique). Le candidat est déclaré « admis à concourir ».

Le dossier est examiné par une commission compétente pour la discipline concernée (on peut candidater dans plusieurs disciplines en même temps), formée de membres élus par les chercheurs du CNRS et par des enseignants-chercheurs ou chercheurs d’autres organismes. Il s’agit, plus précisément, soit d’une section du Comité national de la recherche scientifique (qui a pour autre rôle notamment d’évaluer les chercheurs du CNRS et de se prononcer sur leurs promotions) soit d’une commission interdisciplinaire. Ces sections et commissions sont numérotées, c’est pour cela que dans les articles de presse cités on parle de postes de section 36, 39, etc.

À l’issue de cet examen, une partie des candidats (mettons la moitié) sont admis à poursuivre et à se présenter à une audition où ils présenteront leurs travaux, leur projet et répondront à des questions. L’utilité de cette audition, brève en raison du nombre importants de candidats à passer, est discutée, notamment en raison de la rigidité administrative qu’elle impose (on fait venir, à leur frais, des candidats parfois de très loin, et l’absence est éliminatoire).

La commission produit un classement d’admissibilité, comportant habituellement plus de candidats que de postes à pourvoir (un concours est habituellement ouvert pour quelques postes, voire un seul). Ce classement est ultérieurement transmis à un jury d’admission, commun à plusieurs sections ou commissions, qui établit un classement définitif en sélectionnant parmi les admissibles. Ce jury d’admission est lui aussi formé de scientifiques du domaine, dont des représentants des sections compétentes et des personnalités scientifiques extérieures nommées par la direction — je précise cela, car certains propos tenus dans l’actuelle polémique suggéraient qu’il comprenait des « administratifs ». On m’a toutefois plusieurs fois suggéré que l’avis de la direction de l’institut y est important.

Le plus souvent, le classement d’admission, comportant une liste principale d’autant de candidats que de postes, puis une liste complémentaire, reproduit celui d’admissibilité, à l’exception de candidats ayant démissionné du concours (par exemple, parce qu’ils ont obtenu un poste à l’étranger). Parfois, le jury d’admission permute des candidats de la liste complémentaire, ce qui a une importance notamment si des postes non pourvus sur d’autres concours sont redéployés, ce qui permet de recruter un candidat de plus que le nombre initialement prévu sur un concours donné. Il est en revanche rare que des candidats en liste principale soient déclassés, et c’est ce qui suscite la polémique.

L’an dernier, le jury d’admission de l’institut d’informatique (InS2I) a déclassé des candidats en liste principale (voir le classement d’admissibilité et le classement d’admission), ce qui a provoqué une polémique entre la section 6 et la direction de l’institut, la première publiant une motion, la seconde répliquant par un courriel aux laboratoires dans laquelle elle détaillait les raisons du jury d’admission. Je ne citerai pas in extenso ce courrier, mais on y évoquait la nécessité d’équilibrer les thématiques (le jury d’admissibilité ayant favorisé certains thèmes de recherche, très théoriques, au détriment des autres) et les provenances (quatre candidats classés ayant leur directeur de thèse ou leur co-directeur de la même équipe du même laboratoire).

Je serais donc curieux d’en savoir plus sur les raisons des jurys d’admission InSHS de 2017, au delà des postures convenues.

Réf: Décision de constitution auprès de chacun des instituts du CNRS d'un jury d'admission pour les concours de recrutement des chargés de recherche ouverts au titre de l'année 2017, réf. DEC171262DRH, Bulletin officiel du CNRS, avril 2017, pp 244-251

PS Ce billet, rédigé sur mon temps libre, ne comporte ni approbation ni improbation des positions du CNRS, et n'est pas non plus une référence officielle concernant la procédure des concours — seuls les textes et sites officiels font foi.

PS² Réaction du conseil scientifique de l'InSHS, et réaction de la direction du CNRS à la polémique.

dimanche, mai 28 2017

Le devenir des jeunes docteurs et ses paradoxes

Je lis régulièrement des articles (dans la presse, sur des blogs, des sites associatifs, sur Twitter…) évoquant les « galères » des doctorants, la difficulté à trouver un emploi ensuite, le nombre de postes insuffisants dans l’enseignement supérieur et la recherche publiques. Il me semble que ces discours gagneraient souvent à mieux cibler les domaines concernés (les difficultés ne sont pas les mêmes partout) et à donner le contexte d’interprétation (ce qui éviterait certaines conclusions hâtives).

Il y a actuellement en général un nombre élevé de candidats par poste de chercheur ou d’enseignant-chercheur ouvert au concours. Ce nombre varie suivant les disciplines. Certains en concluent que certaines disciplines sont très bien dotées et qu’il y est « facile » d’obtenir un poste. Il convient de nuancer ces propos.

Dans certaines disciplines de « sciences exactes », une bonne proportion de jeunes docteurs ne candidate pas aux emplois d’(enseignant-)chercheurs publics ; parfois ils passent par sécurité la qualification de maître de conférence, mais ne candidatent pas ensuite, ou encore candidatent « mollement » ; en cas d’échec, ils ne réessayent pas forcément. Ils vont travailler dans des entreprises privées. À l’opposé, dans d’autres disciplines, les jeunes docteurs candidatent, et après un échec candidatent à nouveau, éventuellement depuis des postes d’enseignants dans le secondaire. Il me paraît délicat de conclure que telle ou telle discipline est plus « difficile » qu’une autre.

Ce constat pourrait (j’emploie le conditionnel car bien évidemment il faudrait le vérifier) expliquer le paradoxe que dans les sciences humaines et sociales, réputées disciplines où il est très difficile d’obtenir un poste, le ratio du nombre de qualifiés aux fonctions de maîtres de conférence sur le nombre de postes ouverts est comparable à celui en informatique (que certains jugent discipline facile), tandis que le nombre de candidats par poste ouvert est supérieur. Il est possible que cela soit tout bonnement dû à ce qu’en informatique de nombreux jeunes docteurs passent la qualification par sécurité sans candidater, ou en candidatant peu, et en tout cas ne s’obstinent pas ensuite.

En ce qui me concerne, j’ai eu jusqu’à présent trois doctorants qui ont soutenu. Sur les trois, l’un travaille maintenant chez Apple (dans la Silicon Valley), un autre chez Grammatech (également aux États-Unis), le troisième chez Clustree (en France). Seul l’un des trois a candidaté à un poste de maître de conférence, et encore n’a-t-il candidaté qu’à un poste et, j’en ai l’impression, sans trop y croire. L’un fait maintenant des choses sans rapport avec sa thèse (si ce n’est qu’il s’agit d’informatique et qu’on y utilise les mêmes mathématiques de base), un autre des choses en rapport avec sa thèse mais plus « appliquées ». Je soupçonne qu’en informatique, tout docteur sachant programmer et qui cherche un emploi un peu sérieusement en trouve un très rapidement — il me semble que les doctorants de notre laboratoire qui abandonnent des thèses trouvent également très vite un emploi.

Il me semble heureux que ces jeunes docteurs trouvent des emplois dans l’industrie. En effet, en raisonnant globalement, il n’y a besoin que d’un jeune chercheur pour me remplacer, quand je quitterai mon poste. Pourtant, en moyenne, chaque chercheur ou enseignant-chercheur encadre bien plus de doctorants qu’un seul ; ce qui veut dire que, même avec une politique d’enseignement supérieure et de recherche ambitieuse et sans austérité, la très grande majorité des jeunes docteurs doivent chercher des emplois en dehors de la recherche publique (il y a peut être des exceptions localisées, avec des recrutements massifs dans certaines disciplines ou thématiques « à la mode », mais on ne peut en faire une règle générale). Aucune société, fût-elle amoureuse des sciences comme le fut feue l’Union soviétique, ne pourrait soutenir une inflation exponentielle des emplois scientifiques.

La clef du problème me semble donc être, encore une fois, les débouchés en dehors de l’enseignement supérieur et de la recherche publique. En tout état de cause, il faudrait éviter les constats globaux, alors qu’il s’agit de questions à aborder par discipline, voire sous-discipline.

vendredi, mai 26 2017

Les revues scientifiques bidons, suite

Le journaliste du Monde Pierre Barthélémy appelle la Science à « faire le ménage » des revues scientifiques bidons. Comme dans mon billet précédent, je déplore la confusion entre deux problèmes à mon avis distincts.

Le premier problème est le lancement, à des fins de rentabilité financière, de conférences et revues « scientifiques » qui invitent des orateurs ou publient des articles sans qu’il n’y ait d’évaluation scientifique (ou, ce qui revient au même, avec une évaluation sciemment ignorée).

Il convient ici de rappeler que ni la science ni l’édition scientifique ne sont des professions réglementées, comme le sont par exemple la médecine ou la pharmacie. N’importe qui peut se dire philosophe, sociologue, astrophysicien… et d’ailleurs les médias, dont le Monde, ne se privent pas de présenter comme des scientifiques des individus qui ne jouissent d’aucune reconnaissance de la part de la communauté scientifique. De même n’importe qui peut fonder une « revue scientifique », et la communauté scientifique n’a pas plus de moyen de faire fermer celle-ci qu’elle n’en a d’interdire aux télévisions et aux magazines de faire se parader des charlatans.

Les revues et conférences totalement bidons, sans vrai comité scientifique, sont en dehors de la communauté scientifique. Tout ce que celle-ci peut faire à leur égard, c’est de ne pas tenir compte de leurs articles et présentations dans l’évaluation des curriculum vitæ de chercheurs ou des demandes de financements. C’est déjà très largement le cas.

Un second problème, distinct dans ses processus comme dans ses conséquences, est l’existence de revues en apparence sérieuses — notamment, munies de comités d’universitaires appartenant à des organismes réputés et bénéficiant d’autres signes extérieurs de réputation (grade élevé, invitations…). C’est ce que visaient les canulars Sokal et Tremblay.

Une telle revue ne peut exister qu’avec des soutiens dans la communauté scientifique, voire l’existence de toute une école de pensée et d’équipes de recherche liées. Le problème n’est donc plus celui d’une publication, mais de toute une communauté. Si telle revue n’est pas sérieuse, alors il en est de même de son directeur éditorial… mais que dire alors de ceux qui l’ont promu à son poste universitaire ? Les ramifications et les implications humaines sont importantes.

Ces sujets sont d’autant plus délicats que la mise en lumière d’un manque de sérieux chez certains auteurs, dans une certaine école de pensée… peut être perçue comme une attaque globale sur une discipline entière, voire un groupe de disciplines. On se rappellera par exemple la polémique intense ayant suivi la sortie d’Impostures Intellectuelles, perçu comme une attaque de physiciens étrangers contre les sciences humaines et sociales françaises. Une telle critique est inaudible pour ceux qui devraient l’écouter.

Que faire ? Je ne le sais pas. Et vous ?

lundi, mai 22 2017

Sur la portée expérimentale des canulars dans les publications scientifiques

On connaît la pratique de l’article canular dans les revues scientifiques. Le scénario est toujours un peu le même :

  1. Un article dénué de sens mais qui respecte superficiellement les canons d’un domaine scientifique (présentation, vocabulaire, bibliographie, formules mathématiques le cas échéant…) est soumis à une revue ou conférence.

  2. L’article est accepté, ce qui laisse supposer qu’il n’a pas été soumis à la relecture d’experts (ou que leurs avis ont été totalement ignorés).

  3. Les auteurs de l’article informent le public ; parfois les médias reprennent l’information. Des conclusions sont éventuellement tirées, à plus ou moins bon escient, sur la scientificité du domaine scientifique concerné ou sur le sérieux d’un mode d’édition.

Je ne prétends pas ici fournir un historique du genre, et me limiterai donc à quelques faits marquants.

Le canular le plus célèbre de ce genre est sans doute celui du mathématicien et physicien Alan Sokal en 1996, débouchant sur « l'affaire Sokal ». En 2005, des chercheurs en informatique du Massachusetts Institute of Technology font accepter à une conférence un article généré automatiquement, aléatoirement et totalement dénué de sens. Leur logiciel SCIgen est modifié et adapté et d’autres font accepter des articles similaires. En 2013, un journaliste de la revue Science piège un bon nombre de revues avec un article de biologie bidonné. En 2015, des sociologues du Carnet Zilsel font accepter un article ridicule, signé d’un québécois fictif nommé Jean-Pierre Tremblay, à une revue de sociologie française.

Je pense que, malheureusement, une bonne partie des commentaires sur ces canulars mélangent des choses qui ne le devraient pas.

SCIgen visait des conférences qui étaient largement connues des scientifiques du domaine comme étant bidon (ce qu’on appelle parfois conférences prédatrices). En résumé, des gens organisaient des conférences dans des lieux touristiquement intéressants (par exemple : Orlando, Floride), mais acceptaient comme intervenants n’importe qui à condition que celui-ci règle les frais d’inscription, alors qu’une conférence scientifique respectable les sélectionne (soit par invitation, soit par appel à soumission d’un résumé voire d’un article complet). Ce canular a eu le mérite de confirmer publiquement des soupçons très largement partagés. En revanche, il ne dit rien sur le sérieux des champs scientifiques concernés, vu que ces conférences sont très largement rejetées par les acteurs de ces champs.

Sokal visait une revue (Social Text) éditée par les presses d’une grande université américaine et avec un comité éditorial apparemment respectable. Le canular Tremblay visait une revue, Sociétés, fondée et longtemps dirigée par Michel Maffesoli, sociologue français parvenu jusqu’au plus haut grade de la hiérarchie universitaire. Il y a là une certaine légitimité pour une discussion sur le sérieux d’une revue, d’une école de pensée, bien qu’évidemment il soit périlleux de conclure sur une unique expérience (une expérience statistiquement significative supposerait probablement un effort considérable, tandis que les canulars Sokal et Tremblay relevaient d’une sorte de hobby).

Certaines expériences menées visaient des revues Open Access dont le modèle économique repose exclusivement sur les frais de publication. Ces revues ont donc avantage, pour dégager du profit, à publier le plus d’articles, et certaines ne contrôlent pas ce qu’elles publient. Là encore, rien qui ne soit déjà fortement soupçonné : il existe de multiples signes qui incitent à la méfiance…

Plus que les expériences en elles-mêmes, ce qui paraît discutable ce sont les conséquences que certains prétendent en tirer. Qu’il soit possible d’obtenir de parler dans une conférence d’informatique non reconnue par les informaticiens ne permet pas de déduire grand-chose de l’informatique. Qu’il soit possible de publier des âneries dans certaines revues Open Access ne permet de conclure que l’ensemble des revues Open Access manquent de sérieux ; tout au plus qu’il faut être vigilant et attentif au comité éditorial et à son fonctionnement. Qu’il soit possible de publier des textes dénués de sens dans des revues de sociologie ou d’études de genre ne permet pas de conclure que la sociologie ou les études de genre sont des pseudo-sciences ; tout au plus d’avoir des soupçons sur certaines « chapelles » et sur les mécanismes qui ont permis leur installation. Peut-être l’occasion d’études de sociologie des sciences sociales ?



mercredi, mai 17 2017

Deux conseils de rédaction aux doctorants

Divers sites donnent des conseils de rédaction aux doctorants. Pour ma part, j’estime qu’il y a une grande diversité de méthodes de travail valables, qui plus est dans une grande diversité de disciplines, et qu’il est donc périlleux de proposer des conseils généraux. Je me limiterais donc à deux conseils.

Prendre des notes

On oublie tout : idées, références, citations, schémas d’expériences, conditions de mesure, mode d’emploi de logiciels. Donc il faut tout noter pour pouvoir tout retrouver. Je sais que ça a l’air évident mais on se fait toujours avoir.

Utiliser un correcteur orthographique voire grammatical

Tout le monde finit par faire des fautes d’orthographe ou de grammaire, certains plus que d’autres. J’entends parfois des gens expliquer qu’il s’agit de négligences coupables, qu’il suffit de s’appliquer, que cela aurait dû être acquis à l’école primaire, qu’on peut suivre des cours de rattrapage — cela n’est pas mon propos. Je constate cependant qu’un texte émaillé de fautes fait mauvais effet.

Je pense que c’est un peu tard pour aborder ce genre de problèmes et que pendant les trois ans d’un doctorat on n’a pas le temps de les pallier. J’estime qu’en revanche ne pas utiliser les correcteurs orthographiques, voire grammaticaux, livrés dans tous les traitements et éditeurs de textes, relève de la négligence.

(Si votre logiciel ne fournit pas de correcteur grammatical, vous pouvez essayer LanguageTool.)

mardi, mai 16 2017

Mystère et boule de gomme

Je voudrais aujourd’hui illustrer un peu le fonctionnement de la recherche au quotidien.

Notre équipe travaille entre autres sur l’algorithmique des polyèdres convexes. Si vous ne savez pas ce qu’est un polyèdre convexe, peu importe : il suffit de savoir que ce sont des objets mathématiques sur lesquels nous voulons calculer, et que donc nous devons proposer des méthodes de calcul, autrement dit des algorithmes, efficaces, c’est-à-dire calculant le résultat attendu en n’utilisant qu’une quantité réduite de temps et de mémoire.

Un collègue pense avoir l’idée d’une méthode pour vérifier (je ne rentre pas dans les détails) que deux représentations décrivent en fait le même polyèdre. Nous connaissons des méthodes pour cela, mais elles peuvent être inefficaces.

Après recherche dans une FAQ et la bibliographie, il s’avère que dans la première moitié des années 1990 un éminent chercheur a posé la question de l’existence d’une telle méthode efficace. On peut raisonnablement se dire que s’il existait une méthode efficace et assez simple, il l’aurait trouvée.

Toutefois :

  1. Si on commence par partir perdant en se disant que tout ce à quoi l’on peut songer a dû être fait avant par des gens plus forts, on ne fait plus de recherche.

  2. Ce n’est pas parce qu’en 1994 on ne savait pas quelque chose qu’il en est de même en 2017.

  3. Il se peut que la méthode du collègue soit inefficace dans le pire cas, mais que ce pire cas ne se produit que dans des circonstances particulières.

  4. Il se peut que la partie complexe puisse être gérée par des procédures connues souvent efficaces en pratique.

  5. Rien que comprendre dans quels cas l’idée du collègue pourrait être inefficace nous apprendrait des choses.

Affaire à creuser, donc.

(J’ai par ailleurs envoyé des courriels à l’éminent chercheur et à quelques autres auteurs d’articles anciens sur le sujet pour savoir s’ils ont entendu parler de résultats plus récents...)

mercredi, mai 10 2017

Sur la rédaction des articles scientifiques

En tant que chercheur, je rédige des articles scientifiques, et j’en lis beaucoup — y compris pour les évaluer, lorsque je suis membre d’un comité éditorial ou qu’un comité me sollicite comme expert extérieur. Je vais ici tenter de résumer les caractéristiques que j’apprécie dans les articles que je lis (et que je m’efforce de respecter pour mes propres articles, bien que je n’y arrive pas forcément) et celles qui me rebutent (et que je m’efforce d’éviter pour mes propres articles, et là encore je n’y arrive pas forcément).

Il s’agit bien entendu d’une vision assez subjective, non seulement relative à mes goûts personnels, mais aussi à mon champ de recherche, et je ne prétends donc nullement édicter des règles générales. Peut-être cependant certaines des remarques ci-dessous peuvent s’appliquer dans d’autres contextes.

Les définitions

Chaque terme, chaque notation, nouveau ou qui risque de prêter à confusion doit être introduit, fût-ce brièvement, avant son usage. Il vaut mieux pécher par excès de précisions que par manque.

Bien entendu, on ne va pas redéfinir l’ensemble des termes censément connus du lectorat de l’article : par exemple, je peux supposer que le lecteur sait ce qu’est un espace vectoriel de dimension finie. Il faut toutefois ici se méfier des concepts, notations, terminologies que l’on pense « bien connues » alors qu’elles ne le sont que dans un certain sous-domaine scientifique, une certaine école de pensée, un certain pays…

Je préfère que l’on évite, dans la mesure du possible, les notations équivoques ou personnelles, et, s’il y a pluralité d’interprétations raisonnables, préciser laquelle est en jeu. Par exemple, j’ai lu un article qui utilisait, sans l’introduire, la notation vu et v sont deux vecteurs de réels ; or < désigne souvent l’ordre strict associé à une relation d’ordre large notée ≤, qui ici était l’ordre produit coordonnée par coordonnée (bref, v si sur toute coordonnée i, ui ≤ vi et il existe une coordonnée j telle que uj < vj). Or, l’article entendait par v que sur toute coordonnée i, ui < vi. J’ai dû pour le comprendre lire le détail des preuves, alors que normalement on doit pouvoir comprendre l’énoncé des théorèmes sans consulter les preuves.

Lorsqu’un nouveau terme est introduit, j’aime que cela soit fait explicitement, ou du moins que la tournure de phrase ou la typographie (par exemple, l’italique) me l’indiquent. Sans cela, je suppose, par défaut, que j’ai lu trop hâtivement les pages précédentes et je reviens en arrière à la recherche de la définition du terme ; ce qui, bien évidemment, n’est d’aucun intérêt si celle-ci est dans le paragraphe suivant !

Il est possible que l’on touche ici aux limites du document textuel traditionnel, séquentiel, destiné, au moins formellement, à être lu dans l’ordre du début à la fin. J’apprécie, toutefois, que lorsqu’un document fait usage d’une définition lointaine, il renvoie à celle-ci par un lien hypertexte — ceci est d’ailleurs facile sous LaTeX en utilisant hyperref.

Les résultats

J’apprécie que les principaux résultats d’un article soient mis en exergue, et, dans la mesure du possible, soient exprimés dans un langage limitant les prérequis de lecture (définitions, notations) afin de faciliter leur utilisation dans d’autres travaux.

Prenons un exemple concret (je m’excuse d’avance auprès de mes lecteurs qui ignoreraient ce résultat) : le Nullstellensatz peut s’exprimer en termes de variétés algébriques, d’idéaux, d’idéaux radicaux (ce qui suppose que le lecteur connaisse les définitions de ces termes ou du moins aille consulter), ou en termes plus concrets de sommes et de produits de polynômes à plusieurs variables.

Plus proche de moi, les résultats d’analyse statique par interprétation abstraite peuvent s’exprimer en termes d’invariants inductifs (concept que toute personne du domaine est censé connaître) ou avec des notations spécifiques à une certaine école scientifique (α, γ, ♯…).

Les références bibliographiques

Certaines références bibliographiques sont là pour donner au lecteur un cadre général, des possibilités d’approfondissement… il est alors adapté de citer une publication entière. En revanche, lorsqu’il s’agit d’appuyer un fait précis, j’aime que la citation soit elle aussi précise, donnant non seulement la publication concernée mais aussi le numéro de la définition, du théorème, ou de la page où se reporter. C’est d’autant plus important que la rédaction est elliptique : je me rappelle ainsi avoir lu des articles qui utilisaient un théorème sans citer l’énoncé de celui-ci et en donnant comme seule référence « (Lang, Algebra) » (un ouvrage de 914 pages).

Dans les bibliographies, j’apprécie les hyperliens vers des versions des articles ou autres documents dans des dépôts d’archives ouvertes (HAL, arXiv…). Les liens DOI sont en général moins utiles, car ils conduisent vers les sites payants des éditeurs. Mon expérience (là encore spécifique à un domaine, à certains laboratoires) en tant que correspondant documentation est qu’une grande partie des chercheurs, même si leur laboratoire est abonné, ne savent pas accéder aux articles sur ces sites, dont on peut parfois déplorer la complexité d’utilisation (devoir passer par des proxies, VPN, etc.). Pour des livres, on peut envisager un lien vers WorldCat.

En revanche, certaines indications traditionnelles des bibliographies ne me sont guère de secours. Ainsi, que m’apporte le fait de savoir qu’un livre édité par Springer, un grand groupe international, l’est officiellement à New-York, Heidelberg, ou Berlin ? Une telle indication se justifie pour des petits éditeurs régionaux, mais sinon ?

L’écriture allusive

Voici un travers dans lequel j’ai peur de tomber fréquemment. Lorsque l’on parle de son propre travail, on en vient parfois à parler pour soi-même, ou du moins pour un lecteur qui aurait fait le même chemin intellectuel. Cela donne parfois des travaux dont le lecteur, après avoir lui-même beaucoup réfléchi après avoir échoué à comprendre l’article, finit par dire « ah, c’est cela qu’ils voulaient dire ! ». Certaines remarques sont alors parfois d’un intérêt nul : incompréhensibles pour qui ne connaît pas le sujet, elles sont évidentes pour qui le connaît…

Une bonne méthode pour éviter ce travers me semble être de donner l’article à relire à quelqu’un de suffisamment proche du sujet pour représenter le lectorat potentiellement intéressé, mais suffisamment « naïf » pour ne pas trouver évident le cheminement.

Les résultats expérimentaux

Souvent, les courbes, diagrammes, tableaux de chiffres fournis en fin d’article pour justifier qu’une méthode fonctionne « en vrai » me semblent peu clairs. Parfois je ne comprends même pas ce qui est mesuré, à quoi correspondent tels ou tels symboles, ce qui est en abscisse et en ordonnée… (j’ai par exemple été longtemps rendu perplexe par les « cactus plots »). J’aime voir des légendes précises et explicites.

Choisir

Toute rédaction suppose un choix : telle remarque est-elle utile, bien à sa place ? Le message que nous désirons transmettre n’est-il pas brouillé ? Telle image, telle analogie qui nous a paru adroite ne l’est peut-être pas ; et même si elle l’est, elle n’est peut être pas adaptée à l’ordre d’exposition.

L’ordre d’exposition relève lui-même d’un choix quelque peu arbitraire. Sur le même article, un premier relecteur nous demanda comme une évidence d’intervertir deux sections, et, une fois que cela fut fait, un autre nous demanda de les intervertir à nouveau. Les deux ordres se justifient, mais il faut bien en choisir un.

Dans des textes écrits en collaboration, la difficulté est parfois justement de choisir, car chacun tient à sa remarque, son angle. Le résultat peut alors être confus. C’est à mon avis une des grandes difficultés de Wikipédia, notamment sur les articles traitant de sujets vastes.

En résumé

D’une façon générale, je pense qu’un article doit être écrit d’une façon qui facilite la compréhension du lecteur, quitte à exiger plus de travail des auteurs. (D’un point de vue éthique, cela peut se justifier en arguant que les lecteurs sont plus nombreux que les auteurs.) Il ne s’agit pas de considérer que le lecteur est stupide ou fainéant, mais de prendre acte qu’il n’a pas forcément les mêmes connaissances, les mêmes notations, la même façon de présenter que les auteurs, et que son temps disponible n’est pas infini.

Même si on ne fait pas ce travail pour le lecteur final, il faut aussi prendre acte qu’avant de toucher celui-ci, on doit passer le barrage de l’évaluation par les pairs, et que les évaluateurs, eux non plus, n’ont pas un temps infini et ne sont pas forcément de la même école scientifique.

Quelqu’un m’a un jour affirmé que je devrais publier en français plutôt qu’en anglais, vu que, si mes travaux étaient réellement intéressants, les gens apprendraient le français pour les lire. Je ne souscris pas à ce point de vue : pour être lu, il faut être lisible.

dimanche, mars 12 2017

Geneviève Fioraso regretterait-elle la création du millefeuille administratif ?

Vendredi dernier, Mme Geneviève Fioraso, députée de l'Isère et surtout ancienne ministre de l'enseignement supérieur et de la recherche, prononçant une petite introduction inaugurale avant l'exposé de Guillaume Poupard, a remarqué que les dirigeants politiques avaient suscité la création de trop de nouvelles structures et a souhaité que les universitaires soient plus sages.

Ces propos font écho à d'autres de la même Geneviève Fioraso, inaugurant le laboratoire d'excellence Persyval, où elle faisait remarquer qu'on avait créé beaucoup, peut-être trop de nouvelles structures (LABEX, IDEX, etc.).

Je ne peux m'empêcher de me demander pourquoi et comment des dirigeants politiques en viennent à expliquer qu'ils ont pris de mauvaises décisions comme s'il s'était agi d'une fatalité, de décisions extérieures à eux.

J'aurais aimé que Geneviève Fioraso explique — bien entendu pas lors de ces inaugurations, ce n'était pas le sujet — pourquoi elle a mené cette politique qu'elle semble regretter et qui a abouti à des mille-feuilles administratifs.

jeudi, février 2 2017

A very concrete appraisal of political reality with respect to scientific conferences

My esteemed colleague Moshe Vardi and myself had a little conversation over Twitter regarding the wisdom of planning scientific conferences in the United States, owing to the unpredictable decisions of the US government regarding visas and visitors under the Trump administration. Moshe, who apart from being a very distinguished scientist, is also editor-in-chief of Communications of the ACM, the flagship magazine of the Association for Computing Machinery, answered more fully on a blog posting.

Lire la suite...

lundi, janvier 30 2017

Scientific meetings in the United States under Trump's presidency

I have sent the following letter (with minor alterations) to the head of ACM SIGPLAN (Association for Computer Machinery, special interest group on programming languages), and the steering committees of CAV (International conference on Computer-Aided Verification) and VMCAI (International conference on Verification, Model-Checking and Abstract Interpretation):

Recent developments in US politics seem to indicate that US visa policies in the forthcoming years are likely to be haphazard, with abrupt changes, people with valid visas being denied entry, researchers from certain citizenships or religions being denied entry, perhaps the Visa waiver program being scrapped.

In these circumstances, I wonder about the wisdom of holding scientific conferences in the United States.

Do you have an official position on such matters? If not,shouldn't this be discussed?

Michael Hicks, head of SIGPLAN, informed me that ACM supported the Computer Research Association's statement on President Trump's executive order. The ACM has issued its own statement. The CAV steering committee has informed me that CAV 2018 (as well as 2017) is to take place in Europe, thus 2019 and 2020 are to take place in North America but that logistical and political factors will be taken into account when choosing the location.

In the meantime, several colleagues have expressed concerns about possible gratuitous harassment of students etc. that are going to conferences in the United States.

I remind prospective students or postgraduate researchers that face or may face difficulties coming to the United States that our excellent research facilities in France can welcome you.

PS ACM SIGPLAN's executive committee has issued an official statement  ending with:

While we hope that the EO is rescinded (and will work toward this outcome), we are developing contingency plans for organizing future SIGPLAN events so as to maximize inclusiveness of the worldwide scientific community. We welcome your input.

jeudi, septembre 8 2016

Pour les futurs doctorants : attention aux propos lénifiants

Puisque les conseils aux doctorants de mon billet précédent ont suscité un certain intérêt, je poursuis ici par des mises en garde en ce qui concerne les choix de sujets de thèse et d'encadrants. Là encore, mon message est que les doctorants doivent bien analyser la portée de ce qu'on leur dit ; et là encore je vais partir de propos discutables que j'ai entendus ou que l'on m'a rapportés.

Un premier exemple. Jeune chercheur, j'ai entendu des étudiants m'expliquer qu'on les avait dissuadés d'aller en stage de master (ou était-ce encore DEA ?) avec un chercheur parce que celui-ci, n'étant pas titulaire de l'habilitation à diriger les recherches, ne pourrait de toute façon pas prendre d'étudiant en thèse ensuite. On leur avait également laissé entendre qu'il y aurait des postes de chercheur à prendre après la thèse dans une autre thématique.

Tout d'abord, s'il est effectivement exact qu'en général, on ne peut pas diriger de thèse sans habilitation à diriger les recherches, il est très courant dans ma discipline que les jeunes chercheurs sans habilitation puissent encadrer des thèses, que ce soit comme co-encadrants au côté d'un directeur de thèse (cette position de co-encadrant est officielle dans l'école doctorale dont je dépends), ou via une dispense. Bref, information au mieux inexacte, au pire trompeuse.

Ensuite, il est proprement choquant qu'on fasse miroiter des postes à de futurs doctorants.

Tout d'abord, lorsqu'on discute de postes de chercheurs ou d'enseignants chercheurs avec des étudiants en master, cela veut dire qu'on se pose 4, 5, 6, 7 ans avant le concours qui les recrutera. Or, il est impossible de savoir autant à l'avance quelle sera la politique nationale de recrutement. Celle-ci dépend en effet de l'orientation politique du gouvernement en place, de la conjoncture économique (recettes fiscales), et de nombreux autres facteurs. Que l'on songe, par exemple, que les récents attentats ont déterminé une réorientation de budgets vers la sécurité… Outre ces aspects globaux, il peut y avoir de bonnes comme de mauvaises nouvelles dans une discipline ; par exemple, vers 2002 il y a eu un nombre inhabituellement élevé de recrutements de chargés de recherche en informatique… qui l'aurait prévu en 1996 ?

Par ailleurs, il est périlleux de prétendre prédire que telle thématique sera à la mode et qu'il y aura donc des postes. Les modes vont et viennent, parfois selon les lubies perspectives visionnaires de tel ou tel décideur. De plus, si un sujet est « à la mode » au point d'attirer de nombreux étudiants, cela veut dire qu'il y aura certes beaucoup de places, mais aussi beaucoup de candidats. Par exemple, actuellement, le « big data » est à la mode (sur une promotion de 500 polytechniciens, 320 suivent le cours de deuxième année dessus !), et on recrute en effet beaucoup sur ce sujet, mais quelle sera la situation quand tous les étudiants formés sur ce thème auront soutenu ? J'ai bien l'impression que pour profiter d'une mode, il faut être dans le sujet avant justement qu'il ne soit à la mode et que tout le monde arrive dessus...

Un second exemple. On voit des jeunes docteurs se lamenter en disant, en substance

« Je ne comprends pas, tout le monde me dit que mon sujet est fondamental et ma thèse très intéressante, on m'invite dans des séminaires, et on ne me recrute pas. C'est injuste. »

Première remarque. Il ne coûte rien de dire à quelqu'un que sa thèse est intéressante et de l'inviter dans des séminaires — surtout si dans la même ville, en l'absence de frais de mission. Par comparaison, les postes sont des ressources très rares et coûteuses (un chercheur débutant coûte de l'ordre de 50000€ par an au CNRS simplement en salaires et cotisations diverses). La question n'est donc pas de savoir si les gens trouvent une thèse ou un sujet important, mais plutôt de savoir s'ils le trouvent suffisamment important pour lui consacrer un poste.

Au sujet de l'intérêt du sujet de thèse, je voudrais également mettre en garde les étudiants contre l'« effet de loupe » que provoque parfois la recherche. De nombreux chercheurs ou étudiants-chercheurs attribuent à leur sujet d'étude un intérêt bien plus important que ce que lui accorde la communauté scientifique en général (et ne parlons pas de la population). Ceci peut amener à des incompréhensions.

Deuxième remarque. L'intérêt intrinsèque d'un sujet de recherche n'est pas tout, il y a aussi d'autres aspects, comme l'intégration à un département ou un laboratoire — par exemple, on n'a pas forcément envie de recruter quelqu'un qui serait isolé sur une thématique en marge.

Mon propos n'est évidemment pas de dégoûter les étudiants, mais de les aider à avoir un choix éclairé avant un engagement sur plusieurs années. Je rappelle que, structurellement, la grande majorité des docteurs ne peut avoir de poste dans la recherche « académique », et que donc de nombreuses personnes formées à la recherche sur des sujets passionnants devront faire autre chose ensuite…

Finissons par quelques conseils concrets. Renseignez-vous sur votre sujet, sur votre directeur de thèse envisagé, sans vous en remettre à des propos lénifiants. Un bon directeur de thèse doit être disponible pour ses étudiants (à un degré variable suivant les besoins d'encadrement des étudiants, qui varient considérablement de l'un à l'autre), de mode de fonctionnement compatible avec ceux-ci, et avoir la tête sur les épaules pour les questions administratives. Il est également utile qu'il ait un bon réseau de connaissances, par exemple pour pouvoir présenter ses étudiants à des employeurs de post-doctorat possibles. Tout ceci, bien entendu, en plus des aspects scientifiques proprement dits !

vendredi, septembre 2 2016

Quelques conseils non scientifiques aux doctorants

C'est la rentrée, et j'ai quelques conseils aux doctorants qui me trottent par la tête. Oh, pas des conseils de méthodologie, de choix de sujet ou autre aspect scientifique — les disciplines sont si diverses que cela n'aurait guère de sens. Je ne veux parler que des aspects administratifs et réglementaire du doctorat en France, et de ses débouchés.

D'une façon générale, dans l'enseignement supérieur et la recherche française, il y a la réglementation nationale (qui, du moins en théorie, s'impose à tous), d'éventuelles décisions locales, des coutumes propres à une discipline et de simples habitudes. Par exemple, il est habituel, dans l'université qui m'héberge, qu'un professeur ou assimilé de cette université figure dans chaque jury de thèse, mais cela n'est imposé ni par la réglementation nationale ni par la réglementation locale. En revanche, d'autres universités imposent cela.

Une difficulté pour le doctorant qui se pose des questions est que parfois la réponse qu'on lui apporte est propre à une discipline, une université, ou souffre d'exceptions, ou se rapporte à un état précédent de la réglementation. C'est compliqué, et qui plus est on peut fournir plusieurs réponses correctes suivant le point de vue dont on se place.

Prenons par exemple la question

« Faut-il obligatoirement l'agrégation [du secondaire] pour pouvoir devenir maître de conférences. »

Une réponse administrativement correcte est : « bien sûr que non! » :

  1. Ce n'est nulle part écrit dans le statut des maîtres de conférences et des professeurs des universités, qui définit leurs modalités de recrutement.

  2. L'agrégation est un concours de recrutement de l'enseignement secondaire et non un concours de recrutement du supérieur.

  3. L'agrégation n'existe pas dans diverses disciplines du supérieur, par exemple l'informatique, pourtant la discipline avec le plus grand nombre d'enseignants-chercheurs.

  4. L'agrégation suit la règle générale de la fonction publique : seuls les citoyens de l'Espace économique européen et de la Suisse peuvent concourir ; en revanche les emplois de maîtres de conférences et de professeurs des universités n'ont pas de condition de nationalité.

Toutefois, une réponse plus précise est que, dans certaines disciplines, notamment de lettres, sciences humaines et sociales , l'agrégation du secondaire, voire un bon classement à celle-ci, sert à démontrer une étendue de connaissances disciplinaires utiles pour un enseignant — l'idée étant qu'il est possible d'obtenir un doctorat en ayant des connaissances pointues sur un sous-domaine précis sans nécessairement avoir une vision plus large utile pour faire cours. Les jurys de recrutement tendent donc à tenir compte, même si cela ne sera évidemment écrit nulle part, puisque cela n'est pas une obligation réglementaire… et de même les jurys pourront fort bien recruter de non agrégés !

Qui plus est, ce n'est pas parce qu'il existe une réglementation nationale qu'elle est appliquée de la même façon partout, notamment parce qu'elle peut laisser une certaine marge de manœuvre. Par exemple, l'actuelle réglementation du doctorat (en vigueur depuis le 1er septembre) impose que le jury de soutenance soit composé de façon à « permettre une représentation équilibrée des femmes et des hommes ». La réglementation ne définit cependant pas en quoi consiste cette « représentation équilibrée ». Dans l'école doctorale dont je dépends, on estime qu'un jury est acceptable s'il comprend au moins une femme, dans d'autres on parle d'imposer 40 %. Les deux choix se défendent, d'ailleurs :

  • je suis dans une discipline avec environ 23 % de femmes, mais ce taux varie suivant la sous-discipline de sorte qu'il est raisonnable d'imposer au moins une femme sur un jury d'environ 6 personnes ;

  • mais 40 % c'est le minimum imposé pour les jurys de concours de maîtres de conférence.

À ce sujet, étonnement d'un étudiant quand je lui expliquais ces règles : « mais, untel a soutenu il y a trois mois et pourtant il n'avait aucune femme ». Oui, il y a trois mois ; mais le nouvel arrêté est en vigueur depuis le 1er septembre ! Ne pas se fier à ce qui a pu être ou non fait dans un état précédent de la réglementation !

Il faut également savoir qu'en France, à côté de statuts couvrant un grand nombre de personnels, il existe souvent des statuts assez confidentiels — par exemple, en matière d'enseignants-chercheurs, il y a les plus nombreux (les maîtres de conférences et professeurs des universités, par ailleurs en poste dans diverses grandes écoles), et puis certaines grandes écoles ont leurs propres statuts de personnels différents, donc avec des modalités différentes de recrutement (par exemple, la qualification par le CNU n'est pas exigée).

Enfin, quelques avertissements.

Le premier est, je sais que c'est cliché, que les promesses n'engagent que ceux qui les croient. On voit ainsi des doctorants se mettre à enseigner alors que, réglementairement, ils ne sont pas censés en avoir le droit, pour des promesses qu'on régularisera leur situation, et ensuite rager de ne pas être payés. C'est d'autant plus vrai que ceux qui disent qu'une chose est possible ou sera régularisée ne sont pas ceux qui prennent les décisions in fine : un professeur aura beau dire, si le chef des ressources humaines a dit que non, ce sera non.

Le second est qu'il ne faut surtout pas confondre d'une part la « morale » ou le « juste », d'autre part la réglementation ou la décision administrative. Par exemple, il peut sembler choquant qu'une université ou un organisme de recherche interdise à un chercheur d'aller à une conférence scientifique en Turquie, alors qu'on pourrait attendre que les universitaires français démontrent leur soutien à leurs collègues turcs en cette ère de purges. Le point de vue des universités ou des organismes de recherche est plutôt qu'ils ne veulent pas risquer d'avoir un personnel en mission officielle arrêté, blessé voire tué dans un pays étranger instable. J'irais même jusqu'à dire que si une administration a le choix entre la commodité (absence de risques, facilité de gestion…) pour elle et l'intérêt scientifique, elle choisira toujours la première.

En conclusion : vérifiez bien comment est censé fonctionner ce que l'on vous raconte.

mercredi, avril 20 2016

Have a cigar

Come in here, dear boy, have a cigar. You're gonna go far, you're gonna fly high, You're never gonna die, you're gonna make it if you try; they're gonna love you.

Well, I've always had a deep respect, and I mean that most sincerely. Your research is just fantastic, that really got me thinking Oh by the way, what's “solving” ?

And did we tell you the name of the game, boy? We call it Riding the Gravy Train.

We're just knocked out. We heard about the sell out. You gotta get a project out, You owe it to the people. We're so happy we can hardly count.

Everybody else is just green, have you seen the funds? It's a helluva start, it could be made into a monster If we all pull together as a team.

And did we tell you the name of the game, boy? We call it Riding the Gravy Train.

Publications scientifiques, on vaut mieux que ça !

Cette tribune, dont j'étais le coordinateur, a été publiée sur le site du journal Libération le 28 mars 2016.

Le projet de loi pour une République numérique adopté par l'Assemblée nationale, sera prochainement examiné par le Sénat. Son article 17 introduit une nouveauté importante pour les chercheurs. Actuellement, pour publier leurs résultats, ils doivent concéder, sans contrepartie de rémunération, l'exclusivité de leur droits d'auteurs à des éditeurs privés, qui facturent ensuite l'accès à ces articles, souvent fort cher, aux organismes de recherche, aux universités et aux enseignants. Les éditeurs interdisent souvent aux chercheurs de diffuser leur propre production scientifique sur leur site Web ou celui de leur établissement : ainsi, le lecteur est obligé de passer par le site de l'éditeur, parfois à un tarif prohibitif.

Avec la nouvelle loi, pareilles clauses léonines seront réputées non écrites. Les auteurs auront alors la possibilité (mais pas l'obligation) de déposer, même après publication en revue, leurs articles dans une archive ouverte telle que HAL, recommandée et gérée par de grands organismes de recherche publique dont le CNRS.

Cette réforme paraît donc de bon sens. Elle suscite pourtant des oppositions, comme celles qui ont été exprimées ici même dans une tribune le 17 mars 2016.

Comme l'écrivent nos collègues dans leur tribune, la production d'une revue scientifique est une tâche exigeante, qui mobilise un large éventail de compétences aussi bien pour expertiser les articles que pour les mettre en forme. Or le mérite de cette tâche ne revient pas aux éditeurs privés. Si l'éditeur commercial est bien, en droit français, le garant légal d'une publication, et s'il assure la plupart du temps l'impression et la diffusion du document, dans l'écrasante majorité des cas les revues françaises sont dirigées, rédigées, expertisées, mises en forme, toilettées et typographiées par des agents publics (chercheurs, enseignants-chercheurs, personnels techniques) non rémunérés par les éditeurs. Quant aux éditeurs internationaux, quand ils ne laissent pas la mise en page à faire aux auteurs, ils la sous-traitent volontiers dans des pays à bas coûts.

Sans doute faut-il le préciser, HAL et les autres archives ouvertes ne se substituent pas à l'évaluation par les pairs et aux formats de diffusion qui en découlent. L'évaluation de la qualité scientifique d'une recherche est attestée quoi qu'il arrive par un comité scientifique formé principalement d'universitaires, et non par un éditeur. Le support — papier ou numérique — n'a pas d'importance. Les derniers travaux sur les ondes gravitationnelles ont ainsi été publiés en Open Access et personne n'a contesté leur qualité. Ce n'est donc pas ce mode de diffusion qui menace les petites maisons d'édition universitaires et leur qualité de publication ; la cause est plutôt à chercher du côté d'un oligopole d'éditeurs qui tire un profit maximum du fait que laboratoires scientifiques et chercheurs sont évalués en fonction des revues ou des maisons d'édition où ils publient leurs résultats.

C'est pourquoi nous ne comprenons guère l'argument déclarant que la diffusion sur des archives publiques gérées par des organismes comme le CNRS profite à des « grandes compagnies ultralibérales comme Google » coupables de « pillage ». Si les lettres et sciences humaines et sociales, et plus généralement l'ensemble de la recherche scientifique, sont menacées, ce n'est pas tant par Internet, Google ou Facebook, que par le faible espace qui leur est laissé par la bureaucratie, le manque de moyens, et les injonctions contradictoires des pouvoirs publics.

Nous appelons donc chacun à garder à l'esprit que c'est en encourageant la diffusion de la connaissance scientifique qu'on sert le mieux l'intérêt général.Un tel objectif ne se confond pasavec les intérêts particuliers de tel ou tel éditeur. Ne nous trompons pas de combat.



Anne Baillot, langue et littérature germanique, experte en techniques numériques pour les sciences humaines, centre Marc Bloch & Inria, Managing Editor du Journal of the Text Encoding Initiative

Florian Barrière, maître de conférence à l'Université Grenoble Alpes, langue et littérature latines
Grégoire Besse, doctorant à l'université de Nantes, physique

Catherine T. Bolly, chercheuse à l'Université de Cologne, linguistique
Laurent Capron, ingénieur d'études au CNRS, philologie grecque et sémitique, information scientifique
Frédéric Clavert, maître-assistant à l'université de Lausanne, histoire
Camille Coti, maître de conférences à l'université Paris-XIII, informatique
François-Xavier Coudert, chargé de recherche au CNRS, chimie
Antonin Delpeuch, étudiant à l'École normale supérieure (Paris), informatique
Jean-Pierre Demailly, professeur des universités à l'université Grenoble Alpes, mathématiques, membre de l'Académie des sciences
Mai-Linh Doan, maître de conférences à l'université Grenoble Alpes, géophysique
Suzanne Dumouchel, chercheuse à l'Institut historique allemand de Paris, littérature française, SIC & Humanités Numériques
Pauline Duchêne, maîtresse de conférences à l'université Paris Ouest Nanterre La Défense, langue et littérature latines

Benjamin Fagard, chargé de recherche au CNRS, linguistique, rédacteur en chef de la Revue Discours

Virginie Gautron, maître de conférences à l'université de Nantes, droit privé
Julie Giovacchini, ingénieure de recherche au CNRS, philologie, analyse de sources et information scientifique

Joël Gombin, doctorant, science politique
Sébastien Grignon, ingénieur de recherche au CNRS, histoire des religions, analyse de sources et information scientifique
Myriam Houssay-Holzschuch, professeure des universités à l'université Grenoble Alpes, géographie

Nathalie Jas, chargée de recherche à l'INRA, histoire et sociologie

Sylvie Kleiman-Lafon, maître de conférences à l'université Paris-8, littérature anglaise

Claire Lemercier, directrice de recherche au CNRS, histoire
Frédérique Lerbet-Sereni, professeure des universités à l'université de Pau et des pays de l'Adour, sciences de l'éducation, directrice de La Recherche en Éducation
Rémi Mathis, conservateur des bibliothèques, enseignant à l'École nationale des chartes et à l'École du Louvre

David Monniaux, directeur de recherche au CNRS, informatique

Caroline Muller, professeure agrégée à l'université de Reims Champagne Ardenne, histoire
Hervé Pajot, professeur des universités à l'université Grenoble Alpes, mathématiques, rédacteur en chef des Annales de l'Institut Fourier
Catherine Psilakis, professeure agrégée à l'université Lyon-I, lettres classiques

Francisco Roa Bastos, enseignant-chercheur vacataire, docteur en science politique
Émilien Ruiz, maître de conférences à l'université Lille-3, histoire
Charlotte Truchet, maître de conférences à l'université de Nantes, informatique

Romain Vanel, assistant ingénieur au CNRS, enseignant en sciences humaines à l'université Grenoble Alpes

le comité de rédaction de Tracés, revue de sciences humaines

mercredi, avril 6 2016

Le chêne au milieu de la cour

Un étudiant vint voir un directeur de recherche et lui dit « Maître, comment faire pour savoir quelles sont les bonnes directions de recherche ? ».

Le directeur de recherche lui répondit « Regarde le chêne au milieu de la cour du laboratoire. »

L'étudiant prit un air intrigué, sortit, chercha dans la cour et eut l'air perplexe.

Le lendemain, l'étudiant revint voir le directeur de recherche et lui dit « Maître, je suis retourné ce matin dans la cour et tout ce que j'ai vu, c'est une jeune pousse qui mettra des dizaines d'années avant de donner un chêne ! »

Le directeur de recherche regarda l'étudiant et l'étudiant fut Éclairé.

- page 1 de 18