La vie est mal configurée

Aller au contenu | Aller au menu | Aller à la recherche

mercredi, juin 21 2017

Le chercheur et la vie réelle

Les réseaux sociaux ont beaucoup bruissé hier de cette attaque du député Jean-Luc Mélenchon envers le député et ex-collègue Cédric Villani :

Il y en a quand même, ils [ne] sont au courant de rien, donc quand on va leur expliquer… Non mais il y a des braves gens là-dedans ! Il y a des braves gens ! Bon il y a beaucoup de DRH, des gens comme ça qui ont une conscience sociale assez faible (pas toujours, hein !), mais il y a beaucoup de…[fait des moulinets avec sa main au dessus de sa tête] des chercheurs, des intellectuels, des chais pas quoi… J’ai vu le matheux là, je vais lui expliquer ce qu’est un contrat de travail, il va tomber par terre ! Parce qu’il [ne] le sait pas, tout simplement, il [ne] sait pas ce qu’il y a dedans ! Il ne sait pas que la journée de huit heures, c’est cent ans de luttes ! Le gars il croit que ça a toujours été comme cela !

Cédric Villani a répondu ainsi :

Cher @JLMelenchon, Directeur de l'IHP, j'en ai vu des contrats de travail... mais c'est tjs un plaisir de recevoir des cours particuliers !

Beaucoup de choses ont été dites suite à cette passe d’armes, mais je voudrais donner quelques points factuels.

L’image d’Épinal du chercheur est un être quelque peu fantasque et déconnecté du réel, à l’apparence excentrique, distrait et pas fait pour gérer des réalités terrestres, comme Tryphon Tournesol. Cédric Villani a d’ailleurs abondamment joué de son apparence pour construire sa présence dans les médias — bien entendu, la plupart des chercheurs, fussent-ils en mathématiques, ont une allure bien plus passe-partout. Au-delà de ces aspects superficiels, qu’en est-il réellement ?

En 2017, un chercheur qui veut disposer de moyens doit répondre à des appels à projets de recherche, pour lesquels on lui demande la présentation d’un budget, qui peut faire apparaître des coûts salariaux. Je passe à mes lecteurs la liste détaillée des amusants aspects extra scientifiques à prendre en compte — amortissement du matériel, cotisation ou absence de cotisation chômage, calculs de gratifications de stage, TVA, partage de propriété intellectuelle, règlement financier de l’appel à projet, etc. Très souvent, le chercheur n’est guère aidé pour cela par les services administratifs et doit donc apprendre « sur le tas ».

Quant à un directeur d’unité tel que Cédric Villani, si normalement ce n’est pas lui qui signe in fine le contrat de travail au nom de l’établissement, c’est parfois lui qui organise les recrutements de contractuels (cela peut aussi être un chef de service ou de projet qui le fait), et bien sûr il voit normalement passer pour approbation tous les contrats de travail des contractuels rattachés à sa structure. Là encore, je passe à mes lecteurs la complexité de la gestion administrative et financière d’une unité avec plusieurs tutelles, chacune ayant ses propres marchés publics, ses propres particularités d’emploi.

Bien entendu, cela ne fait nullement du chercheur, fût-il directeur d’unité, un fin connaisseur des aspects financiers et administratifs ou du droit du travail des fonctionnaires et des contractuels de la fonction publique. En même temps, il est bien forcé de s’y intéresser un tant soit peu, sauf à aller au devant de graves problèmes...

(Sinon, il me semble bien que les luttes sociales étaient au programme d’histoire du baccalauréat C du temps où Cédric Villani l’a passé ; cela sans présager de son attention sur cette partie du programme.)

jeudi, juin 15 2017

Les limites de ma vulgarisation

Le ''Journal du CNRS'' m'a sollicité ce printemps pour deux articles qu'ils ont mis en ligne :

  1. Un point de vue sur la question de l'usage des « algorithmes » par les pouvoirs publics et les questions qu'il faut se poser en matière de transparence, d'opposabilité et de contrôle démocratique.
  2. Un article plus relié à mon domaine de recherche sur les méthodes pour assurer la fiabilité des logiciels de contrôle-commande en avionique, sujet qui m'a beaucoup occupé de 2002 à 2007.

J'ai par ailleurs publié avec Virginie Gautron un article aux Archives de politique criminelle un article sur l'usage des « algorithmes » pour rechercher des profils suspects dans la population.

Si je suis effectivement expert en méthodes formelles et j'ai effectivement réalisé avec d'autres des outils industriels dans ce domaine, je ne suis expert ni en méthodes d'apprentissage ni en leur application aux problèmes sociaux ou juridiques ; se pose donc la question de ma légitimité à écrire sur ces sujets.

Je m'en suis évidemment tenu à des généralités que n'importe quel scientifique du domaine qui se tient un peu au courant pourrait énoncer, par exemple au rappel de faits statistiques de base; j'ai par ailleurs fait relire une partie de mes propos par des spécialistes. Pourtant, je ne me sens guère à l'aise, et j'ai d'ailleurs tenté de rediriger mes interlocuteurs vers des collègues plus à même de répondre à leur demande.

J'éprouve, je ne le cache pas, un certain agacement quand je vois des universitaires, faisant état de leurs titres et en tirant légitimité pour s'exprimer en public, parler de sujets qu'ils ne connaissent guère pour dire au mieux des platitudes, au pire des faussetés. Le danger est donc pour moi de me comporter d'une façon que je réprouve chez les autres.

D'un autre côté, il semble que les instances de médiation scientifique, les collègues d'autres disciplines voire les pouvoirs publics manquent d'interlocuteurs scientifiques en informatique. Si personne n'accepte ce rôle, fût-ce pour parler de domaines qu'ils ne connaissent que de loin, ils trouveront d'autres interlocuteurs, encore moins qualifiés. Par ailleurs, le niveau d'explications à fournir n'est souvent guère élevé et ne nécessite pas de connaissances approfondies ; après tout, on attend d'un enseignant-chercheur en informatique qu'il puisse assurer des enseignements de licence même s'ils ne portent pas sur sa spécialité !

Qu'en pensez-vous ?

mercredi, mai 31 2017

Sécurité informatique, soupir

Je reviens d’un petit colloque sur la sécurité informatique. Quelques réflexions.

Complexification

Les ordinateurs personnels d’il y a une trentaine d’années étaient simples. Une documentation technique très complète du système (instructions du processeur, registres des contrôleurs d’entrée sortie, appels systèmes…) pouvait être fournie en quelques volumes. En revanche, les ordinateurs actuels (qu’il s’agisse de machines de bureau, de portables ou de smartphones) sont très complexes. La documentation de l’architecture x86 prend plusieurs milliers de pages.

Il y a trente ans, un développeur (même novice) pouvait rapidement maîtriser une grande partie du fonctionnement de sa machine. De nos jours, c’est impossible : il y a trop de choses, qui changent qui plus est toutes les quelques années. Il y a vingt ans, je comprenais à peu près le fonctionnement d’un système Linux (mais pas le détail), de nos jours il y a bon nombre de zones mystérieuses.

Dans l’exposé d’Éric Freyssinet et les interventions de Jean-Yves Marion, on a bien senti la même évolution dans le développement des outils d’intrusion informatique. Le cliché des films est le « petit génie » de l’informatique opérant isolément : or les attaques sont complexes à mettre en œuvre et mettent souvent en jeu plusieurs groupes de personnes, chacun spécialisé sur une partie du problème.

Parallèlement, on assiste à une fuite en avant et une complexification des mesures de sécurité. Il y a longtemps, sur un système Unix, il existait les processus utilisateurs, les processus privilégiés (ceux de l’utilisateur root) et le noyau du système. Maintenant, on a éventuellement au dessus du noyau un hyperviseur, peut-être lui même virtualisé dans un autre hyperviseur… voire un composant matériel « sécurisé » indépendant du processeur principal.

Bien entendu le logiciel se complique aussi. Aux débuts du Web, le trafic passait « en clair » (http) sur le réseau, de sorte que toute personne qui avait accès aux équipements réseau pouvait espionner le trafic. Récupérer une page Web était relativement simple. Depuis on est largement passé à une transmission chiffrée (https), plus sûre mais aussi considérablement plus complexe pour le logiciel.

Plus un système est compliqué, plus il offre de possibilités d’erreur et de « surface d’attaque ».

Une pensée a posteriori

Comme on le voit bien sur l’exemple de http suivi de https, la sécurité est souvent rajouté a posteriori par-dessus une fonctionnalité. Ceci conduit à des systèmes complexes et parfois assez baroques.

Mais qui a pu avoir une idée pareille ?!

Au récit du fonctionnement technique de certaines attaques, on se demande comment quelqu’un a pu penser que c’était une bonne idée que de concevoir le système attaqué en y laissant une faille béante. Quelques exemples :

  1. L’Étoile de la Mort de l’Épisode IV de la Guerre des Étoiles a une bouche de refroidissement dans laquelle un simple tir par un appareil de combat léger provoque sa destruction totale.

  2. Un périphérique Firewire avait naguère le droit d’initier un transfert de ou vers la mémoire de la machine sur laquelle il était branché sans contrôle de ce à quoi il avait le droit d’accéder — on vous prêtait une caméra ou un disque dur, celle-ci pouvait donc prendre le contrôle de votre machine.

  3. Certaines machines à base de processeurs Intel avaient une console de commande système à laquelle on pouvait accéder en fournissant un mot de passe vide — apparemment, elle vérifiait que le mot de passe fourni par l’utilisateur était le bon en ne comparant que jusqu’à la longueur du mot de passe fourni par l’utilisateur…

  4. Quelqu’un avait cru bon de modifier le générateur de nombres aléatoires d’OpenSSL d’une façon qui réduisait considérablement son aléa et rendait des clefs de chiffrement trouvables par recherche exhaustive, car la modification supprimait un avertissement dans un outil de recherche de bugs.

On en est au point parfois où l’on se demande s’il s’agit d’incompétence ou d’erreurs sciemment mises en place à la demande de tel ou tel service.

Internet of Things

Les entreprises qui vendent des objets connectés ont pour objectif d’arriver rapidement sur le marché ; la sécurité représente un surcoût en temps et en argent. Ces entreprises peuvent avoir un cœur de métier traditionnel (électroménager…) éloigné des réseaux et de la sécurité. Elles ne sont pas forcément prêtes à fournir des mises à jour de sécurité en continu (à l’inverse de fournisseurs de systèmes d’exploitation tels que Microsoft, Apple, ou Ubuntu). Comme on peut s’y attendre, la sécurité est faible.

On a, dit-on, des bot-nets de réfrigérateurs et de caméras de surveillances connectées. On s’attend à des bot-nets de voitures connectées. On espère, mais peut-être est-ce un fol espoir, que dans ces véhicules la partie compromise ne sera que le système de divertissement et non ce qui contrôle la conduite. Et que dire des dispositifs médicaux connectés !

Des systèmes sécurisés inutilisables donc inutilisés

En théorie, il est possible de chiffrer son disque dur (de façon à rendre les informations qui s’y trouvent illisibles pour un voleur, par exemple), de chiffrer son courrier électronique (de façon à ce que les opérateurs de réseau et hébergeurs de courrier ne puissent pas le lire), d’utiliser une messagerie instantanée chiffrée.

En pratique, peu de gens le font : les logiciels qui font cela ne sont pas installés par défaut, ils demandent une configuration spécifique (voire l’intervention de prestataires extérieurs), parfois ne fonctionnent pas pour des raisons mystérieuses. Même parmi les chercheurs en informatique, a priori un public a priori plus sensibilisé et apte techniquement que la majorité de la population, on sent ces difficultés.

Conclusion

Je ne déborde pas d’optimisme.

dimanche, mai 28 2017

Le devenir des jeunes docteurs et ses paradoxes

Je lis régulièrement des articles (dans la presse, sur des blogs, des sites associatifs, sur Twitter…) évoquant les « galères » des doctorants, la difficulté à trouver un emploi ensuite, le nombre de postes insuffisants dans l’enseignement supérieur et la recherche publiques. Il me semble que ces discours gagneraient souvent à mieux cibler les domaines concernés (les difficultés ne sont pas les mêmes partout) et à donner le contexte d’interprétation (ce qui éviterait certaines conclusions hâtives).

Il y a actuellement en général un nombre élevé de candidats par poste de chercheur ou d’enseignant-chercheur ouvert au concours. Ce nombre varie suivant les disciplines. Certains en concluent que certaines disciplines sont très bien dotées et qu’il y est « facile » d’obtenir un poste. Il convient de nuancer ces propos.

Dans certaines disciplines de « sciences exactes », une bonne proportion de jeunes docteurs ne candidate pas aux emplois d’(enseignant-)chercheurs publics ; parfois ils passent par sécurité la qualification de maître de conférence, mais ne candidatent pas ensuite, ou encore candidatent « mollement » ; en cas d’échec, ils ne réessayent pas forcément. Ils vont travailler dans des entreprises privées. À l’opposé, dans d’autres disciplines, les jeunes docteurs candidatent, et après un échec candidatent à nouveau, éventuellement depuis des postes d’enseignants dans le secondaire. Il me paraît délicat de conclure que telle ou telle discipline est plus « difficile » qu’une autre.

Ce constat pourrait (j’emploie le conditionnel car bien évidemment il faudrait le vérifier) expliquer le paradoxe que dans les sciences humaines et sociales, réputées disciplines où il est très difficile d’obtenir un poste, le ratio du nombre de qualifiés aux fonctions de maîtres de conférence sur le nombre de postes ouverts est comparable à celui en informatique (que certains jugent discipline facile), tandis que le nombre de candidats par poste ouvert est supérieur. Il est possible que cela soit tout bonnement dû à ce qu’en informatique de nombreux jeunes docteurs passent la qualification par sécurité sans candidater, ou en candidatant peu, et en tout cas ne s’obstinent pas ensuite.

En ce qui me concerne, j’ai eu jusqu’à présent trois doctorants qui ont soutenu. Sur les trois, l’un travaille maintenant chez Apple (dans la Silicon Valley), un autre chez Grammatech (également aux États-Unis), le troisième chez Clustree (en France). Seul l’un des trois a candidaté à un poste de maître de conférence, et encore n’a-t-il candidaté qu’à un poste et, j’en ai l’impression, sans trop y croire. L’un fait maintenant des choses sans rapport avec sa thèse (si ce n’est qu’il s’agit d’informatique et qu’on y utilise les mêmes mathématiques de base), un autre des choses en rapport avec sa thèse mais plus « appliquées ». Je soupçonne qu’en informatique, tout docteur sachant programmer et qui cherche un emploi un peu sérieusement en trouve un très rapidement — il me semble que les doctorants de notre laboratoire qui abandonnent des thèses trouvent également très vite un emploi.

Il me semble heureux que ces jeunes docteurs trouvent des emplois dans l’industrie. En effet, en raisonnant globalement, il n’y a besoin que d’un jeune chercheur pour me remplacer, quand je quitterai mon poste. Pourtant, en moyenne, chaque chercheur ou enseignant-chercheur encadre bien plus de doctorants qu’un seul ; ce qui veut dire que, même avec une politique d’enseignement supérieure et de recherche ambitieuse et sans austérité, la très grande majorité des jeunes docteurs doivent chercher des emplois en dehors de la recherche publique (il y a peut être des exceptions localisées, avec des recrutements massifs dans certaines disciplines ou thématiques « à la mode », mais on ne peut en faire une règle générale). Aucune société, fût-elle amoureuse des sciences comme le fut feue l’Union soviétique, ne pourrait soutenir une inflation exponentielle des emplois scientifiques.

La clef du problème me semble donc être, encore une fois, les débouchés en dehors de l’enseignement supérieur et de la recherche publique. En tout état de cause, il faudrait éviter les constats globaux, alors qu’il s’agit de questions à aborder par discipline, voire sous-discipline.

vendredi, mai 26 2017

Les revues scientifiques bidons, suite

Le journaliste du Monde Pierre Barthélémy appelle la Science à « faire le ménage » des revues scientifiques bidons. Comme dans mon billet précédent, je déplore la confusion entre deux problèmes à mon avis distincts.

Le premier problème est le lancement, à des fins de rentabilité financière, de conférences et revues « scientifiques » qui invitent des orateurs ou publient des articles sans qu’il n’y ait d’évaluation scientifique (ou, ce qui revient au même, avec une évaluation sciemment ignorée).

Il convient ici de rappeler que ni la science ni l’édition scientifique ne sont des professions réglementées, comme le sont par exemple la médecine ou la pharmacie. N’importe qui peut se dire philosophe, sociologue, astrophysicien… et d’ailleurs les médias, dont le Monde, ne se privent pas de présenter comme des scientifiques des individus qui ne jouissent d’aucune reconnaissance de la part de la communauté scientifique. De même n’importe qui peut fonder une « revue scientifique », et la communauté scientifique n’a pas plus de moyen de faire fermer celle-ci qu’elle n’en a d’interdire aux télévisions et aux magazines de faire se parader des charlatans.

Les revues et conférences totalement bidons, sans vrai comité scientifique, sont en dehors de la communauté scientifique. Tout ce que celle-ci peut faire à leur égard, c’est de ne pas tenir compte de leurs articles et présentations dans l’évaluation des curriculum vitæ de chercheurs ou des demandes de financements. C’est déjà très largement le cas.

Un second problème, distinct dans ses processus comme dans ses conséquences, est l’existence de revues en apparence sérieuses — notamment, munies de comités d’universitaires appartenant à des organismes réputés et bénéficiant d’autres signes extérieurs de réputation (grade élevé, invitations…). C’est ce que visaient les canulars Sokal et Tremblay.

Une telle revue ne peut exister qu’avec des soutiens dans la communauté scientifique, voire l’existence de toute une école de pensée et d’équipes de recherche liées. Le problème n’est donc plus celui d’une publication, mais de toute une communauté. Si telle revue n’est pas sérieuse, alors il en est de même de son directeur éditorial… mais que dire alors de ceux qui l’ont promu à son poste universitaire ? Les ramifications et les implications humaines sont importantes.

Ces sujets sont d’autant plus délicats que la mise en lumière d’un manque de sérieux chez certains auteurs, dans une certaine école de pensée… peut être perçue comme une attaque globale sur une discipline entière, voire un groupe de disciplines. On se rappellera par exemple la polémique intense ayant suivi la sortie d’Impostures Intellectuelles, perçu comme une attaque de physiciens étrangers contre les sciences humaines et sociales françaises. Une telle critique est inaudible pour ceux qui devraient l’écouter.

Que faire ? Je ne le sais pas. Et vous ?

lundi, mai 22 2017

Sur la portée expérimentale des canulars dans les publications scientifiques

On connaît la pratique de l’article canular dans les revues scientifiques. Le scénario est toujours un peu le même :

  1. Un article dénué de sens mais qui respecte superficiellement les canons d’un domaine scientifique (présentation, vocabulaire, bibliographie, formules mathématiques le cas échéant…) est soumis à une revue ou conférence.

  2. L’article est accepté, ce qui laisse supposer qu’il n’a pas été soumis à la relecture d’experts (ou que leurs avis ont été totalement ignorés).

  3. Les auteurs de l’article informent le public ; parfois les médias reprennent l’information. Des conclusions sont éventuellement tirées, à plus ou moins bon escient, sur la scientificité du domaine scientifique concerné ou sur le sérieux d’un mode d’édition.

Je ne prétends pas ici fournir un historique du genre, et me limiterai donc à quelques faits marquants.

Le canular le plus célèbre de ce genre est sans doute celui du mathématicien et physicien Alan Sokal en 1996, débouchant sur « l'affaire Sokal ». En 2005, des chercheurs en informatique du Massachusetts Institute of Technology font accepter à une conférence un article généré automatiquement, aléatoirement et totalement dénué de sens. Leur logiciel SCIgen est modifié et adapté et d’autres font accepter des articles similaires. En 2013, un journaliste de la revue Science piège un bon nombre de revues avec un article de biologie bidonné. En 2015, des sociologues du Carnet Zilsel font accepter un article ridicule, signé d’un québécois fictif nommé Jean-Pierre Tremblay, à une revue de sociologie française.

Je pense que, malheureusement, une bonne partie des commentaires sur ces canulars mélangent des choses qui ne le devraient pas.

SCIgen visait des conférences qui étaient largement connues des scientifiques du domaine comme étant bidon (ce qu’on appelle parfois conférences prédatrices). En résumé, des gens organisaient des conférences dans des lieux touristiquement intéressants (par exemple : Orlando, Floride), mais acceptaient comme intervenants n’importe qui à condition que celui-ci règle les frais d’inscription, alors qu’une conférence scientifique respectable les sélectionne (soit par invitation, soit par appel à soumission d’un résumé voire d’un article complet). Ce canular a eu le mérite de confirmer publiquement des soupçons très largement partagés. En revanche, il ne dit rien sur le sérieux des champs scientifiques concernés, vu que ces conférences sont très largement rejetées par les acteurs de ces champs.

Sokal visait une revue (Social Text) éditée par les presses d’une grande université américaine et avec un comité éditorial apparemment respectable. Le canular Tremblay visait une revue, Sociétés, fondée et longtemps dirigée par Michel Maffesoli, sociologue français parvenu jusqu’au plus haut grade de la hiérarchie universitaire. Il y a là une certaine légitimité pour une discussion sur le sérieux d’une revue, d’une école de pensée, bien qu’évidemment il soit périlleux de conclure sur une unique expérience (une expérience statistiquement significative supposerait probablement un effort considérable, tandis que les canulars Sokal et Tremblay relevaient d’une sorte de hobby).

Certaines expériences menées visaient des revues Open Access dont le modèle économique repose exclusivement sur les frais de publication. Ces revues ont donc avantage, pour dégager du profit, à publier le plus d’articles, et certaines ne contrôlent pas ce qu’elles publient. Là encore, rien qui ne soit déjà fortement soupçonné : il existe de multiples signes qui incitent à la méfiance…

Plus que les expériences en elles-mêmes, ce qui paraît discutable ce sont les conséquences que certains prétendent en tirer. Qu’il soit possible d’obtenir de parler dans une conférence d’informatique non reconnue par les informaticiens ne permet pas de déduire grand-chose de l’informatique. Qu’il soit possible de publier des âneries dans certaines revues Open Access ne permet de conclure que l’ensemble des revues Open Access manquent de sérieux ; tout au plus qu’il faut être vigilant et attentif au comité éditorial et à son fonctionnement. Qu’il soit possible de publier des textes dénués de sens dans des revues de sociologie ou d’études de genre ne permet pas de conclure que la sociologie ou les études de genre sont des pseudo-sciences ; tout au plus d’avoir des soupçons sur certaines « chapelles » et sur les mécanismes qui ont permis leur installation. Peut-être l’occasion d’études de sociologie des sciences sociales ?



jeudi, mai 18 2017

Équivalence des représentations de polyèdres convexes

On sait qu’un polyèdre convexe borné peut s’exprimer aussi bien comme l’enveloppe convexe V d’une famille de points que comme l’intersection H d’une famille finie de demi-espaces. On peut donc vouloir vérifier que deux telles représentations sont équivalentes.

On montre facilement que ce problème est dans co-NP :

  1. L’inclusion V ⊆ H se vérifie aisément (produit de matrices).

  2. H ⊊ V si et seulement si il existe un sommet de H (choix non déterministe sur les contraintes à intersecter) qui sort de V (test par programmation linéaire sur les coordonnées barycentriques).

Apparemment, la complexité de ce problème est inconnue ! Pas d’algorithme polynomial connu, pas de preuve de complétude…

PS L'algorithme suivant (pour polyèdres bornés) ne fonctionne pas :

  1. On minimise les représentations sommets et contraintes (un appel de programmation linéaire pour chaque sommet ou contrainte par rapport aux autres, soit temps polynomial).
  2. On vérifie l'inclusion des sommets dans les contraintes (produit de matrices).
  3. On vérifie que chaque contrainte sature au moins d sommets et chaque sommet au moins d contraintes et qu'aucune contrainte (resp. sommet) ne sature un sur-ensemble des sommets (resp. contraintes) saturés par une autre contrainte (resp. sommet).
En effet, la condition 3. est validée par un cube dont on a ôté un des sommets de la liste des générateurs.

mercredi, mai 17 2017

Sur la rédaction des articles scientifiques, 2

Comme l’a fait remarquer un lecteur, mon précédent billet sur le sujet aurait pu se résumer à : « il faut tout mettre en œuvre pour que l’article soit compréhensible, et en tout cas éviter les obstacles à la compréhension ». Venons-en à des désirs plus généraux.

J’aime, lorsque je lis un article, savoir où l’on va et pourquoi l’on introduit telle ou telle définition.

J’aime que l’on situe les résultats et qu’on en explique la signification, notamment si l’on est dans un champ avec un grand nombre de résultats voisins mais avec des différences subtiles — sachant que parfois certaines différences sont superficielles mais sans importance réelle, et d’autres changent la nature du problème.

J’aime savoir pourquoi on a étudié une question. C’est parfois difficile à expliquer, et les explications bateau du genre « avec l’essor du Big Data dans le Cloud il est important d’étudier le parallélisme, pour lequel les automates de Bzyknowicz à poil dur forment un cadre élégant » ne sont souvent que de peu d’intérêt. Je suis conscient qu’un champ d’étude finit par avoir une vie propre indépendante du problème qui lui a donné naissance.


Deux conseils de rédaction aux doctorants

Divers sites donnent des conseils de rédaction aux doctorants. Pour ma part, j’estime qu’il y a une grande diversité de méthodes de travail valables, qui plus est dans une grande diversité de disciplines, et qu’il est donc périlleux de proposer des conseils généraux. Je me limiterais donc à deux conseils.

Prendre des notes

On oublie tout : idées, références, citations, schémas d’expériences, conditions de mesure, mode d’emploi de logiciels. Donc il faut tout noter pour pouvoir tout retrouver. Je sais que ça a l’air évident mais on se fait toujours avoir.

Utiliser un correcteur orthographique voire grammatical

Tout le monde finit par faire des fautes d’orthographe ou de grammaire, certains plus que d’autres. J’entends parfois des gens expliquer qu’il s’agit de négligences coupables, qu’il suffit de s’appliquer, que cela aurait dû être acquis à l’école primaire, qu’on peut suivre des cours de rattrapage — cela n’est pas mon propos. Je constate cependant qu’un texte émaillé de fautes fait mauvais effet.

Je pense que c’est un peu tard pour aborder ce genre de problèmes et que pendant les trois ans d’un doctorat on n’a pas le temps de les pallier. J’estime qu’en revanche ne pas utiliser les correcteurs orthographiques, voire grammaticaux, livrés dans tous les traitements et éditeurs de textes, relève de la négligence.

(Si votre logiciel ne fournit pas de correcteur grammatical, vous pouvez essayer LanguageTool.)

mardi, mai 16 2017

Mystère et boule de gomme

Je voudrais aujourd’hui illustrer un peu le fonctionnement de la recherche au quotidien.

Notre équipe travaille entre autres sur l’algorithmique des polyèdres convexes. Si vous ne savez pas ce qu’est un polyèdre convexe, peu importe : il suffit de savoir que ce sont des objets mathématiques sur lesquels nous voulons calculer, et que donc nous devons proposer des méthodes de calcul, autrement dit des algorithmes, efficaces, c’est-à-dire calculant le résultat attendu en n’utilisant qu’une quantité réduite de temps et de mémoire.

Un collègue pense avoir l’idée d’une méthode pour vérifier (je ne rentre pas dans les détails) que deux représentations décrivent en fait le même polyèdre. Nous connaissons des méthodes pour cela, mais elles peuvent être inefficaces.

Après recherche dans une FAQ et la bibliographie, il s’avère que dans la première moitié des années 1990 un éminent chercheur a posé la question de l’existence d’une telle méthode efficace. On peut raisonnablement se dire que s’il existait une méthode efficace et assez simple, il l’aurait trouvée.

Toutefois :

  1. Si on commence par partir perdant en se disant que tout ce à quoi l’on peut songer a dû être fait avant par des gens plus forts, on ne fait plus de recherche.

  2. Ce n’est pas parce qu’en 1994 on ne savait pas quelque chose qu’il en est de même en 2017.

  3. Il se peut que la méthode du collègue soit inefficace dans le pire cas, mais que ce pire cas ne se produit que dans des circonstances particulières.

  4. Il se peut que la partie complexe puisse être gérée par des procédures connues souvent efficaces en pratique.

  5. Rien que comprendre dans quels cas l’idée du collègue pourrait être inefficace nous apprendrait des choses.

Affaire à creuser, donc.

(J’ai par ailleurs envoyé des courriels à l’éminent chercheur et à quelques autres auteurs d’articles anciens sur le sujet pour savoir s’ils ont entendu parler de résultats plus récents...)

mercredi, mai 10 2017

Sur la rédaction des articles scientifiques

En tant que chercheur, je rédige des articles scientifiques, et j’en lis beaucoup — y compris pour les évaluer, lorsque je suis membre d’un comité éditorial ou qu’un comité me sollicite comme expert extérieur. Je vais ici tenter de résumer les caractéristiques que j’apprécie dans les articles que je lis (et que je m’efforce de respecter pour mes propres articles, bien que je n’y arrive pas forcément) et celles qui me rebutent (et que je m’efforce d’éviter pour mes propres articles, et là encore je n’y arrive pas forcément).

Il s’agit bien entendu d’une vision assez subjective, non seulement relative à mes goûts personnels, mais aussi à mon champ de recherche, et je ne prétends donc nullement édicter des règles générales. Peut-être cependant certaines des remarques ci-dessous peuvent s’appliquer dans d’autres contextes.

Les définitions

Chaque terme, chaque notation, nouveau ou qui risque de prêter à confusion doit être introduit, fût-ce brièvement, avant son usage. Il vaut mieux pécher par excès de précisions que par manque.

Bien entendu, on ne va pas redéfinir l’ensemble des termes censément connus du lectorat de l’article : par exemple, je peux supposer que le lecteur sait ce qu’est un espace vectoriel de dimension finie. Il faut toutefois ici se méfier des concepts, notations, terminologies que l’on pense « bien connues » alors qu’elles ne le sont que dans un certain sous-domaine scientifique, une certaine école de pensée, un certain pays…

Je préfère que l’on évite, dans la mesure du possible, les notations équivoques ou personnelles, et, s’il y a pluralité d’interprétations raisonnables, préciser laquelle est en jeu. Par exemple, j’ai lu un article qui utilisait, sans l’introduire, la notation vu et v sont deux vecteurs de réels ; or < désigne souvent l’ordre strict associé à une relation d’ordre large notée ≤, qui ici était l’ordre produit coordonnée par coordonnée (bref, v si sur toute coordonnée i, ui ≤ vi et il existe une coordonnée j telle que uj < vj). Or, l’article entendait par v que sur toute coordonnée i, ui < vi. J’ai dû pour le comprendre lire le détail des preuves, alors que normalement on doit pouvoir comprendre l’énoncé des théorèmes sans consulter les preuves.

Lorsqu’un nouveau terme est introduit, j’aime que cela soit fait explicitement, ou du moins que la tournure de phrase ou la typographie (par exemple, l’italique) me l’indiquent. Sans cela, je suppose, par défaut, que j’ai lu trop hâtivement les pages précédentes et je reviens en arrière à la recherche de la définition du terme ; ce qui, bien évidemment, n’est d’aucun intérêt si celle-ci est dans le paragraphe suivant !

Il est possible que l’on touche ici aux limites du document textuel traditionnel, séquentiel, destiné, au moins formellement, à être lu dans l’ordre du début à la fin. J’apprécie, toutefois, que lorsqu’un document fait usage d’une définition lointaine, il renvoie à celle-ci par un lien hypertexte — ceci est d’ailleurs facile sous LaTeX en utilisant hyperref.

Les résultats

J’apprécie que les principaux résultats d’un article soient mis en exergue, et, dans la mesure du possible, soient exprimés dans un langage limitant les prérequis de lecture (définitions, notations) afin de faciliter leur utilisation dans d’autres travaux.

Prenons un exemple concret (je m’excuse d’avance auprès de mes lecteurs qui ignoreraient ce résultat) : le Nullstellensatz peut s’exprimer en termes de variétés algébriques, d’idéaux, d’idéaux radicaux (ce qui suppose que le lecteur connaisse les définitions de ces termes ou du moins aille consulter), ou en termes plus concrets de sommes et de produits de polynômes à plusieurs variables.

Plus proche de moi, les résultats d’analyse statique par interprétation abstraite peuvent s’exprimer en termes d’invariants inductifs (concept que toute personne du domaine est censé connaître) ou avec des notations spécifiques à une certaine école scientifique (α, γ, ♯…).

Les références bibliographiques

Certaines références bibliographiques sont là pour donner au lecteur un cadre général, des possibilités d’approfondissement… il est alors adapté de citer une publication entière. En revanche, lorsqu’il s’agit d’appuyer un fait précis, j’aime que la citation soit elle aussi précise, donnant non seulement la publication concernée mais aussi le numéro de la définition, du théorème, ou de la page où se reporter. C’est d’autant plus important que la rédaction est elliptique : je me rappelle ainsi avoir lu des articles qui utilisaient un théorème sans citer l’énoncé de celui-ci et en donnant comme seule référence « (Lang, Algebra) » (un ouvrage de 914 pages).

Dans les bibliographies, j’apprécie les hyperliens vers des versions des articles ou autres documents dans des dépôts d’archives ouvertes (HAL, arXiv…). Les liens DOI sont en général moins utiles, car ils conduisent vers les sites payants des éditeurs. Mon expérience (là encore spécifique à un domaine, à certains laboratoires) en tant que correspondant documentation est qu’une grande partie des chercheurs, même si leur laboratoire est abonné, ne savent pas accéder aux articles sur ces sites, dont on peut parfois déplorer la complexité d’utilisation (devoir passer par des proxies, VPN, etc.). Pour des livres, on peut envisager un lien vers WorldCat.

En revanche, certaines indications traditionnelles des bibliographies ne me sont guère de secours. Ainsi, que m’apporte le fait de savoir qu’un livre édité par Springer, un grand groupe international, l’est officiellement à New-York, Heidelberg, ou Berlin ? Une telle indication se justifie pour des petits éditeurs régionaux, mais sinon ?

L’écriture allusive

Voici un travers dans lequel j’ai peur de tomber fréquemment. Lorsque l’on parle de son propre travail, on en vient parfois à parler pour soi-même, ou du moins pour un lecteur qui aurait fait le même chemin intellectuel. Cela donne parfois des travaux dont le lecteur, après avoir lui-même beaucoup réfléchi après avoir échoué à comprendre l’article, finit par dire « ah, c’est cela qu’ils voulaient dire ! ». Certaines remarques sont alors parfois d’un intérêt nul : incompréhensibles pour qui ne connaît pas le sujet, elles sont évidentes pour qui le connaît…

Une bonne méthode pour éviter ce travers me semble être de donner l’article à relire à quelqu’un de suffisamment proche du sujet pour représenter le lectorat potentiellement intéressé, mais suffisamment « naïf » pour ne pas trouver évident le cheminement.

Les résultats expérimentaux

Souvent, les courbes, diagrammes, tableaux de chiffres fournis en fin d’article pour justifier qu’une méthode fonctionne « en vrai » me semblent peu clairs. Parfois je ne comprends même pas ce qui est mesuré, à quoi correspondent tels ou tels symboles, ce qui est en abscisse et en ordonnée… (j’ai par exemple été longtemps rendu perplexe par les « cactus plots »). J’aime voir des légendes précises et explicites.

Choisir

Toute rédaction suppose un choix : telle remarque est-elle utile, bien à sa place ? Le message que nous désirons transmettre n’est-il pas brouillé ? Telle image, telle analogie qui nous a paru adroite ne l’est peut-être pas ; et même si elle l’est, elle n’est peut être pas adaptée à l’ordre d’exposition.

L’ordre d’exposition relève lui-même d’un choix quelque peu arbitraire. Sur le même article, un premier relecteur nous demanda comme une évidence d’intervertir deux sections, et, une fois que cela fut fait, un autre nous demanda de les intervertir à nouveau. Les deux ordres se justifient, mais il faut bien en choisir un.

Dans des textes écrits en collaboration, la difficulté est parfois justement de choisir, car chacun tient à sa remarque, son angle. Le résultat peut alors être confus. C’est à mon avis une des grandes difficultés de Wikipédia, notamment sur les articles traitant de sujets vastes.

En résumé

D’une façon générale, je pense qu’un article doit être écrit d’une façon qui facilite la compréhension du lecteur, quitte à exiger plus de travail des auteurs. (D’un point de vue éthique, cela peut se justifier en arguant que les lecteurs sont plus nombreux que les auteurs.) Il ne s’agit pas de considérer que le lecteur est stupide ou fainéant, mais de prendre acte qu’il n’a pas forcément les mêmes connaissances, les mêmes notations, la même façon de présenter que les auteurs, et que son temps disponible n’est pas infini.

Même si on ne fait pas ce travail pour le lecteur final, il faut aussi prendre acte qu’avant de toucher celui-ci, on doit passer le barrage de l’évaluation par les pairs, et que les évaluateurs, eux non plus, n’ont pas un temps infini et ne sont pas forcément de la même école scientifique.

Quelqu’un m’a un jour affirmé que je devrais publier en français plutôt qu’en anglais, vu que, si mes travaux étaient réellement intéressants, les gens apprendraient le français pour les lire. Je ne souscris pas à ce point de vue : pour être lu, il faut être lisible.

dimanche, mars 26 2017

Les propos trompeurs d'Hervé Mariton sur les rémunérations des professeurs des universités

Dans l'émission On n'est pas couché du 25 mars 2017, le député Hervé Mariton a expliqué, afin de minimiser les turpitudes de certains parlementaires, que ceux-ci sont moins bien payés que les professeurs des universités, et que la plupart de ces derniers ont des activités complémentaires rémunérées. Rappelons quelques faits.

Un député (hors cas spéciaux : président, vice-présidents, questeurs, mieux rémunérés) gagne environ 7200€ bruts mensuels. Le traitement brut mensuel d'un professeur des universités varie, suivant le grade et l'ancienneté, 3200€ et 6200€, auquel on ajoute environ 1000€ annuel de prime d'enseignement et recherche. Encore faut-il signaler que ce traitement à 6200€ est en toute fin de carrière pour les professeurs de classe exceptionnelle, grade qui, comme son nom l'indique, est exceptionnel.

Peuvent, dans certain cas, s'ajouter à cela une prime d'encadrement doctoral et de recherche (3500€ ou 7000€ par an, 15000€ pour les titulaires de prix Nobel et d'autres hautes distinctions scientifiques) ou d'autres primes, par exemple pour la gestion d'un projet du Conseil européen de la recherche (ERC), ces projets étant attribués au terme d'un processus très compétitif. Peuvent également s'ajouter des heures complémentaires d'enseignement, ou encore des intéressements lorsque l'activité du chercheur a produit des brevets ou licences de logiciels commercialisées.

Bref, pour qu'un professeur des universités atteigne la paye d'un parlementaire de base, sans cumul avec d'autres activités, il faut une configuration rare : un professeur de classe exceptionnelle qui cumule avec des primes difficiles à obtenir (par exemple, Cédric Villani, médaillé Fields, doit effectivement toucher plus de 7000€ par mois). On comprend donc en quoi les affirmations de M. Mariton sont trompeuses, puisqu'elles présentent un cas exceptionnellement favorable comme représentatif de la profession.

Ajoutons que les professeurs des universités sont une minorité parmi les enseignants à l'université. Parmi les personnels permanents, ils ne représentaient en 2010 que 27 % environ, alors qu'il y avait 53 % de maîtres de conférence et 20 % d'enseignants du second degré, ces deux dernières catégories étant moins bien payées. Une grande partie des enseignements sont par ailleurs assurés par des enseignants temporaires, notamment des vacataires, parfois précaires, et en tout cas encore moins bien payés.

M. Mariton prétend également que la plupart des professeurs des universités ont des activités complémentaires. J'ignore si c'est le cas, mais il faut ici rappeler qu'au sens du droit de la fonction publique, il suffit d'une seule heure de travail rémunéré en dehors de l'emploi principal pour qu'on parle d'« activité complémentaire » nécessitant l'autorisation de l'employeur ; donc un professeur d'université qui donne une fois l'an une conférence rémunérée dans une grande école et quelques heures de cours dans une autre, le tout pour quelques centaines d'euros, sera considéré comme ayant deux activités complémentaires. Ceci est bien évidemment sans rapport avec les montants dont on discute en matière de rémunérations des parlementaires.

Pour des rémunérations complémentaires en dizaines de milliers d'euros annuels, je vois surtout les activités de consultant (je ne connais personne dans ce cas) et l'exercice libéral (avocats..) des professeurs des universités en droit et matières proches. Là encore, on ne peut décrire comme un fait majoritaire ce qui ne relève que d'une minorité.

On pourrait mettre sur le compte de l'ignorance pareilles affirmations. M. Mariton, en effet, est membre d'un parti dont les soutiens les plus vulgaires considèrent que les fonctionnaires sont des privilégiés surpayés, il ne ferait que reprendre, sous une forme certes plus polie (il est polytechnicien), le même genre de slogans. Or, son épouse est elle-même chercheuse et à ce titre sait sans doute fort bien à quoi s'en tenir concernant la rémunération des professeurs des universités. Je suis donc bien forcé de considérer la possibilité qu'il ait sciemment menti à des fins démagogiques.

PS Mon propos n'est évidemment pas que les professeurs des universités sont particulièrement à plaindre au regard du reste de la population française, mais seulement de redresser des affirmations trompeuses sur un sujet que je connais. Il me semble très probable que les allégations de fraudes aux aides sociales soient du même acabit — l'assimilation d'un cas minoritaire à la majorité ; mais je ne connais pas le sujet.

PS² On m'évoque les hospitalo-universitaires. C'est un sujet que je connais mal (il me semble qu'ils cumulent une rémunération d'enseignant-chercheur, une de pratique hospitalière, et d'éventuels exercices libéraux, mais je peux me tromper), mais qui ne concerne de toute façon qu'une minorité des professeurs des universités.

vendredi, mars 17 2017

Les missions des enseignants-chercheurs

J'évoquais dans mon billet précédent un récent article du Canard Enchaîné évoquant les conditions auxquelles un professeur des universités est employé comme déontologue de l'Assemblée nationale. Une chose me dérange dans la présentation donnée par le Canard, comme d'ailleurs dans d'autres affaires semblables : le travail du professeur des universités n'est évoqué que sous l'angle des heures de cours à effectuer, et de l'éventuelle dispense totale ou partielle d'assurer celles-ci. Le lecteur non averti pourrait concevoir la fausse idée que le travail d'un professeur des universités se limiterait à donner 192 h de cours par an !

Selon le Code de l'éducation (article L952-3),

« Les fonctions des enseignants-chercheurs s'exercent dans les domaines suivants :

  1. L'enseignement incluant formation initiale et continue, tutorat, orientation, conseil et contrôle des connaissances ;

  2. La recherche ;

  3. La diffusion des connaissances et la liaison avec l'environnement économique, social et culturel ;

  4. La coopération internationale ;

  5. L'administration et la gestion de l'établissement. »

Ainsi, outre l'enseignement proprement dit, un professeur ou maître de conférences des universités a des missions d'administration de l'enseignement, d'administration de la recherche, de vulgarisation, de valorisation (dépôts de brevets, collaborations avec l'industrie…). Quant à l'enseignement, le travail ne se limite pas à 192 h de cours par an (en réalité, 192 h « équivalent TD ») — en effet ce décompte ne tient pas compte du temps de préparation des cours (parfois très lourde s'il s'agit d'aborder un sujet nouveau pour l'enseignant, s'il y a rédaction de supports de cours, etc.), de la rédaction de sujets d'examen et de leur corrections, des oraux, des jurys, de la coordination des enseignants…

Quant à la mission de recherche, elle concerne toutes les disciplines et non seulement les « sciences exactes » (c'est sans doute évident pour certains lecteurs mais pas pour tous). Ses modalités varient considérablement d'un domaine à l'autre, mais on retrouve il me semble partout qu'il s'agit de développer de nouvelles idées ou connaissances, ou de valider ou invalider des idées existantes, dans le respect de certaines règles et notamment de la méthode scientifique, avec in fine la publication de résultats validés par les pairs scientifiques.

De plus, notons que les 70000€ annuels de salaire cités dans l'article du Canard ne concernent pas l'ensemble des professeurs des universités, mais seulement ceux de « classe exceptionnelle » (grade auquel on peut éventuellement accéder en fin de carrière et dont l'accès est plafonné afin de lui conserver son caractère exceptionnel).

Le déontologue de l'Assemblée nationale et les activités privées des professeurs de droit

Le Canard Enchaîné a révélé que le déontologue de l'Assemblée nationale exerçait cette fonction en sus de son activité principale de professeur en droit public sans que son université ait autorisé un cumul de rémunérations. C'est l'occasion pour moi de quelques rappels.

La règle générale est qu'un fonctionnaire « consacre l'intégralité de son activité professionnelle aux tâches qui lui sont confiées » (loi n⁰83-634 du 13 juillet 1983, article 25 septies) et ne peut exercer d'activité secondaire rémunérée qu'avec l'autorisation de son employeur, quelle que soit l'ampleur de cette activité, qu'il s'agisse d'une conférence de deux heures ou d'un travail tout au long de l'année. Le non-respect de cette règle peut entraîner des poursuites disciplinaires, en sus du remboursement à l'employeur public des sommes indûment perçues.

Je connais deux exceptions à cette règle (ibid., V) — il peut en exister d'autres. La première concerne les rémunérations en droits d'auteur pour la production d'œuvres de l'esprit (publication de livres, notamment). La seconde concerne « les membres du personnel enseignant, technique ou scientifique des établissements d'enseignement et les personnes pratiquant des activités à caractère artistique [, qui] peuvent exercer les professions libérales qui découlent de la nature de leurs fonctions. ». Notamment, les professeurs de droit peuvent exercer une activité d'avocat, si ce n'est qu'il ne peuvent plaider au profit d'une personne privée contre l'État. Si ces exercices libéraux ne sont pas soumis à autorisation, il existe un système de déclaration préalable (dont j'ignore le caractère obligatoire).

Il arrive que des fonctionnaires exercent des activités secondaires soumises à autorisation préalable sans cette dernière. Le cas le plus fréquent est qu'en raison de la désorganisation des organismes publics, il ne leur est possible de demander l'autorisation qu'après le début de l'activité — j'ai ainsi demandé, et obtenu, une autorisation pour donner des cours en master deux mois après le début des dits cours car les établissements co-gérant ce master ne s'étaient pas mis d'accord sur qui devait payer les vacations des enseignants, or le formulaire d'autorisation demande le nom de l'établissement payeur. Il paraît — quelle horreur ! — que certains exercent sans autorisation des activités auprès d'employeurs privés en tirant partie du fait que ceux-ci, au contraire de tous les employeurs publics dont j'ai la connaissance, n'exigent pas la production de cette autorisation avant de verser la rémunération.

Il est extrêmement surprenant pour moi qu'un professeur de droit ait pu ignorer pareilles règles, que n'importe quel chercheur en sciences connaît, et qu'un organisme public — l'Assemblée nationale — ait accepté de verser une rémunération à un fonctionnaire sans exiger une autorisation de cumul. Il est vrai que le Parlement semble le royaume des exceptions aux lois qu'il vote et au fonctionnement normal des conditions d'emploi et d'indemnisation...

On s'est ému, à juste titre, de la trop grande proximité de certains chercheurs en biologie ou médecine avec des groupes de pression et des industriels ayant avantage à ce que la dangerosité, l'innocuité ou l'efficacité de tel ou tel produit ne soit établie. Encore ces chercheurs ne peuvent-ils exercer d'activité rémunérée au profit de ces industriels qu'avec une autorisation — et, à ma connaissance, au moins au CNRS, la délivrance de celle-ci donne lieu à contrôle d'éventuels conflits d'intérêts.

Je m'étonne, dans ces circonstances, du blanc-seing accordé à des activités libérales dans des domaines tels que le droit ou l'économie. Doit-on admettre, par exemple, qu'un professeur de droit consulté par la puissance publique au sujet de la législation et de la réglementation d'un domaine soit en même temps consultant ou avocat pour les industriels et autres intérêts privés de ce domaine ?

dimanche, mars 12 2017

Geneviève Fioraso regretterait-elle la création du millefeuille administratif ?

Vendredi dernier, Mme Geneviève Fioraso, députée de l'Isère et surtout ancienne ministre de l'enseignement supérieur et de la recherche, prononçant une petite introduction inaugurale avant l'exposé de Guillaume Poupard, a remarqué que les dirigeants politiques avaient suscité la création de trop de nouvelles structures et a souhaité que les universitaires soient plus sages.

Ces propos font écho à d'autres de la même Geneviève Fioraso, inaugurant le laboratoire d'excellence Persyval, où elle faisait remarquer qu'on avait créé beaucoup, peut-être trop de nouvelles structures (LABEX, IDEX, etc.).

Je ne peux m'empêcher de me demander pourquoi et comment des dirigeants politiques en viennent à expliquer qu'ils ont pris de mauvaises décisions comme s'il s'était agi d'une fatalité, de décisions extérieures à eux.

J'aurais aimé que Geneviève Fioraso explique — bien entendu pas lors de ces inaugurations, ce n'était pas le sujet — pourquoi elle a mené cette politique qu'elle semble regretter et qui a abouti à des mille-feuilles administratifs.

samedi, mars 11 2017

Les solutions miracles dans l'enseignement de l'informatique

Depuis quelque temps, les médias vantent la « pédagogie innovante » de certains établissements atypiques d'enseignement de l'informatique. En résumé, on laisse les étudiants se débrouiller et interagir, et ils deviennent des programmeurs, sans avoir à suivre de cours, sans nécessiter d'enseignants. Le sous-entendu est évident : les méthodes classiques d'apprentissage universitaire (cours, travaux dirigés, travaux pratiques) sont inadaptées, les enseignants universitaires dépassés, les apprentissages peu réalistes par rapport aux attentes industrielles…

J'ai une certaine expérience de l'enseignement de la programmation. Je discute avec mes collègues. Voici comment cela se passe, souvent, dans une vraie séance de travaux pratiques (TP) :

Un étudiant se plaint que « ça ne fonctionne pas » et que l'ordinateur s'est trompé (alors qu'évidemment l'erreur est dans ce qu'il a écrit).

Un étudiant dit qu'il n'y a pas de documentation, ou se plaint que celle-ci est en anglais (à peu près toutes les documentations techniques de programmation sont en anglais).

Un étudiant asiatique tape du code sans jamais essayer de l'exécuter car il ne sait pas comment faire et n'ose pas demander.

Un étudiant copie du code sans le comprendre depuis un autre programme.

Un étudiant se plaint que « ça ne marche pas », on lui dit de lire les messages d'erreur et notamment le premier, il ne le fait pas et continue de regarder son écran en disant « ça ne marche pas ! ».

D'une façon générale, un TP de programmation débutants, c'est pour l'enseignant entendre un flux interrompu de « monsieur ! » (et pour l'enseignante, « madame ! ») et courir d'un étudiant à l'autre, chacun coinçant sur son problème.

Autant dire que quand on a cette expérience, on éprouve un certain scepticisme quant à la portée d'une pédagogie fondée sur le travail autonome, sans enseignants. Non que cela soit impossible — on connaît bon nombre de gens ayant appris la programmation par eux-mêmes, c'est d'ailleurs mon cas — mais manifestement cela ne convient pas à de très nombreux étudiants, sans doute la majorité.

Une telle pédagogie convient à des étudiants autonomes, débrouillards, ayant un niveau minimal de lecture en anglais. Que faire des autres ? Et même pour des personnes débrouillardes, il y a le risque de perdre du temps sur des blocages qui se régleraient vite en recourant à un enseignant.

Voici pour la programmation. On voit d'autres évoquer ce type de pédagogie pour enseigner « l'algorithmique » à des étudiants sans prérequis. Or, au-delà d'un certain point en algorithmique (notamment quand on veut justifier le bon fonctionnement de certains algorithmes, ou encore borner le nombre d'opérations qu'ils effectuent), on est obligé de faire appel aux mathématiques. Ceci nécessite une certaine aisance : notations, concepts, comment on rédige une démonstration…

Il est vrai que de nombreux métiers de l'informatique n'exigent guère de connaissances d'algorithmique — une bonne partie de la programmation d'applications consiste à assembler des composants rédigés par d'autres et qui contiennent les éventuelles parties proprement algorithmiques. Quoique… à vouloir assembler des composants sans comprendre comment ils fonctionnent et notamment dans quelles circonstances ils sont efficaces ou inefficaces, on obtient parfois des systèmes qui ne supportent pas la montée en charge ! Bref, former à la programmation sans algorithmique, ou à l'algorithmique sans mathématiques, me semble former à des métiers d'exécutants qui auront besoin de personnels à la formation plus complète pour concevoir les parties plus délicates et dimensionner les systèmes.

Passons aux clichés sur l'enseignement universitaire. On voit des gens parler comme si à l'université l'informatique se faisait en cours magistraux, sans manipuler d'ordinateur ! Je ne connais aucun établissement français où cela soit le cas, quoiqu'en raison des restrictions budgétaires les TP se font maintenant en très grands groupes et que dans certains endroits on doit mettre 2 voire 3 étudiants par machine…

On entend également qu'à l'université on apprendrait des technologies dépassées. Ici, il convient de rappeler quelques faits relatifs aux choix pédagogiques en informatique « pratique » et notamment aux choix de langages de programmation utilisés en enseignement.

Certaines technologies sont pérennes. Par exemple, on enseigne les langages de programmation C et C++ parce que, bien que ceux-ci évoluent, ils existent depuis les années 1970 et 1980 respectivement et vont probablement continuer à être largement utilisés pendant des décennies. En revanche, certaines technologies sont lancées en grande pompe par un industriel, ne « prennent » pas et sont abandonnées (que l'on songe à Microsoft Silverlight, lancé en 2007, coulé en 2012). Dans les cursus, on va tenter d'enseigner des technologies pérennes et non la dernière mode du moment.

Par ailleurs, une partie du public étudiant n'a pas une vision très claire sur ce qui est ou non une technologie d'actualité. Je me rappelle cet étudiant qui me reprochait d'enseigner Java, selon lui un vieux truc, alors que « tout le monde fait du C++ » — Java était le langage à la mode, plus récent que C++. « Tout le monde utilise X » peut vouloir dire « l'entreprise où travaille mon frère utilise X ».

Derrière ces reproches faits à l'université, derrière la promotion sans réflexion ni recul de méthodes d'enseignement censément innovantes, qu'il y a-t-il ? Le dénigrement de l'enseignement public sert bien entendu la communication de l'enseignement privé (et ce n'est pas parce qu'une célèbre école privée est gratuite que d'autres ne sont pas à but lucratif). Il sert également les projets de ceux qui veulent démanteler le public au motif qu'il serait inefficace et dépassé.

Le fantasme de l'école sans enseignants, et pourtant « plus efficace », rejoint celle des MOOCs, ces cours en ligne déjà quelque peu passés de mode. L'accroissement de la productivité depuis la Révolution industrielle est passée par l'automatisation : là où il fallait de nombreux paysans, un seul suffit pour conduire une machine ; on a remplacé caissiers et guichetiers par des automates ; un seul chauffeur, bientôt aucun chauffeur, conduit un camion qui transporte bien plus que les charrettes d'antan. Pour l'enseignement, on en reste à payer une personne pour s'occuper d'un certain nombre d'étudiants. Il est donc tentant de chercher à automatiser cela.

Là encore, il y a beaucoup de naïveté. Que l'on puisse remplacer un cours magistral en amphithéâtre de 500 places par une vidéo, pourquoi pas — on ne peut pas dire qu'il y a beaucoup de rapport entre l'enseignant et son public dans une telle configuration, bien qu'il soit tout de même possible d'observer le regard des étudiants et d'en déduire s'ils suivent ou pas. Mais comment remplacer des travaux dirigés ou pratiques ? Là où il suffit de poser une question à l'enseignant et obtenir une réponse rapide, il faut lancer une question en ligne… Et si l'université doit payer des enseignants pour répondre à ces questions (avec tous les risques d'incompréhension inhérents à la communication distante), quelle économie est vraiment réalisée ? Enfin, quelle discipline de fer est supposée de la part des étudiants !

Il est possible que des solutions d'étude en grande autonomie soient efficaces en formation initiale, pour des publics dégoûtés par le fonctionnement scolaire habituel, ou en formation continue, pour des personnes déjà expérimentées et qui veulent avoir la liberté de leur emploi du temps. Il me semble en revanche parfaitement irréaliste de supposer qu'elles forment une solution miracle pour l'enseignement de masse.

vendredi, mars 10 2017

Guillaume Poupard à l'inauguration du Data Institute de Grenoble

J'étais cet après-midi au colloque d'inauguration du Data Institute de l'Université Grenoble Alpes, en présence de Mme Geneviève Fioraso, députée, et de mes collègues Lise Dumasy, présidente de l'Université Grenoble Alpes et de Patrick Lévy, président de la COMUE.

Guillaume Poupard, directeur général de l'Agence nationale pour la sécurité des systèmes d'information (ANSSI), a prononcé une allocution et répondu à des questions. Je vais ici tenter de donner un résumé de ses propos ; bien entendu, il est possible que je pèche par omission ou mauvaise compréhension. Guillaume Poupard a notamment tenu par moments à distinguer sa position personnelle de celle tenue à titre officiel par l'ANSSI, et je n'ai pas forcément noté toutes ses précautions oratoires. Toute erreur ou expression malheureuse devra donc être portée à mon compte.

« La sécurité informatique ne se limite pas à la technique. Souvent, d'ailleurs, la technique est connue mais ce qui pèche c'est sa mise en œuvre.

Il y a déjà eu en France de terribles intrusions dans des systèmes de traitement d'informations. Les conditions de sécurité sont souvent abominables. Parfois, les attaquants étaient rentrés dans les systèmes depuis des années avant d'être détectés… avec des conséquences dramatiques.

Encore ne s'agit-il là que de vols de données. Il y a pire : les attaques sur les systèmes critiques — industriels, bancaires, etc. Ceux qui sont capables de les attaquer avec succès attendent l'instant opportun où ils pourront créer des perturbations répondant à leurs buts.

En conséquence, la cybersécurité doit être une préoccupation de gouvernance au plus haut niveau et non pas seulement au niveau des experts en sécurité des systèmes d'information. Sur tous ces sujets, l'ANSSI travaille en bonne intelligence avec la CNIL (Commission nationale de l'informatique et des libertés).

Dans une approche traditionnelle de la sécurité, on considère la question de la sécurité des systèmes de traitement d'informations séparément de la question des traitements qu'ils opèrent et des données qu'ils entreposent : on sépare le contenant du contenu. Une telle approche n'est plus possible lorsque l'on considère le cloud, avec externalisation du traitement de données.

Dans quels cas est-il ou non raisonnable d'utiliser le cloud ? L'ANSSI a un processus de qualification de prestataires. Le recours au cloud peut d'ailleurs améliorer la sécurité, puisque les prestataires spécialisés ont des moyens techniques qui vont au-delà de ce que peuvent faire en la matière la plupart des petites et moyennes entreprises, où souvent les aspects informatiques sont gérés par des personnels dont ce n'est pas le métier dans le temps qu'il leur reste.

L'Internet des objets (IoT, Internet of Things) pose des problèmes nouveaux, notamment pour les objets connectés médicaux. Par exemple, comment appréhender la sécurité d'un pace-maker ? Pour des applications moins critiques, la sécurité est hélas souvent une préoccupation très secondaire des fabricants, qui voient en elle des coûts et des délais supplémentaires — l'objectif est le time-to-market, la présentation à Las Vegas au consumer electronics show.

Les géants du Web, les GAFA (Google Apple Facebook Amazon) échappent de plus en plus aux états — on le voit déjà fiscalement. On parle beaucoup du Big Data, buzzword actuel qui désigne ce que l'on appelait naguère fouille de données ou data mining — et aussi de deep learning, approche actuellement à la mode pour mener à bien le vieux programme de l'intelligence artificielle. Que penser d'un monde où 3 ou 4 « intelligences artificielles » collecteraient les données de toute la planète ?

Des compagnies d'assurance peuvent vouloir proposer des polices moins chères aux personnes en bonne santé qu'à celles en mauvaise santé. On s'émeut de la confidentialité d'informations relatives à des problèmes de santé, mais qui songe à dissimuler sa bonne santé… qui peut s'inférer par recoupement de diverses données.

Le règlement européen sur la protection des données est une avancée. La notion de donnée personnelle n'a longtemps pas été claire ; mais maintenant les juristes considèrent que l'adresse IP en est une. Cela n'est pas sans poser des problèmes pour l'analyse forensique de sécurité : celle-ci s'appuie sur des journaux de connexions comprenant de telles adresses… Et pour des raisons de sécurité on peut vouloir conserver de telles informations 10 ans après une attaque !

Le statut de la donnée est chose complexe. Des données sensibles peuvent, après anonymisation et autres traitements, être utilisées pour produire des données publiques. Par exemple, pour la production de prévisions météorologiques publiques on utilise des données confidentielles défense de certains senseurs.

Dans certains traités commerciaux internationaux en cours de négociation (TAFTA etc.), on évoque la libre transmission des données (free flow of data). Les législations ou réglementations nationales interdisant ou restreignant la transmission de certaines données vers d'autres pays seraient alors considérées comme faussant la concurrence. À ce sujet, il ne faut pas confondre, comme on le fait parfois, la libre transmission des informations, une forme de liberté de parole, avec la libre transmission des données. Le 6 et 7 avril prochain on discutera de ces sujet à l'UNESCO.

On parle parfois de cyberguerre. Dans la guerre à l'ancienne, on se battait pour des territoires. Même si de tels conflits subsistent, on se bat de nos jours plutôt pour des ressources naturelles. Demain, se battra-t-on pour des données ? Le Manuel de Talinn est un guide rédigé par un groupe d’experts mandatés par l’OTAN, qui propose une transposition du droit international aux cyberconflits.

Il ne faut pas opposer sécurité et Open Data, l'accès ouvert aux données notamment publiques. Le réflexe pourrait être de tout garder secret ; il vaut mieux procéder à une analyse de risque. Sur ces sujets, l'ANSSI discute beaucoup avec Henri Verdier, administrateur général des données de l'État.

Sur tous ces sujets, l'ANSSI travaille. La moitié des travaux de ses chercheurs sont publics, l'autre moitié confidentielle. Elle collabore actuellement avec le monde universitaire et de la recherche surtout dans les domaines techniques ; il s'agit d'étendre ces collaborations à d'autres domaines.

Abordons maintenant la question des données relatives aux attaques informatiques. Bien entendu, ces données sont précieuses pour les chercheurs et les développeurs de moyens de sécurisation et il est souhaitable qu'elles soient disponibles. On ne peut pourtant pas aveuglément disséminer les informations relatives aux entreprises attaquées. Il ne faut pas perdre de vue qu'il s'agit là de victimes, qui attendent que leurs problèmes soient traités confidentiellement afin de ne pas souffrir de la publicité négative. Une solution est d'extraire et de diffuser des marqueurs et signatures des attaques ; mais ceci demande un travail important.

[Note personnelle : il existe le même problème en matière de vérification automatique de sûreté de fonctionnement des logiciels. Les industriels attendent des solutions qui fonctionnent bien sur leurs cas d'espèce, mais refusent de communiquer ceux-ci aux chercheurs, qui ne peuvent donc pas adapter leurs méthodes et leurs outils en fonction. In fine, tout le monde est mécontent : les industriels trouvent que les outils sont inadaptés à leurs besoins, les chercheurs prennent des exemples artificiels.]

On évoque les pratiques des services douaniers de certains pays (États-Unis), qui ordonnent aux voyageurs de donner accès à leur ordinateur ou téléphone, de communiquer des mots de passe, etc., sous peine d'être renvoyés par le prochain vol. Une suggestion, à titre personnel, serait d'appliquer les mêmes méthodes par réciprocité aux voyageurs de ces pays entrant en France et en Europe. On a vu par le passé l'efficacité de cette mesure, par exemple quand le Brésil a imposé la prise des empreintes d'identité des voyageurs américains.

La situation de l'ANSSI comme service du premier ministre (et non comme autorité indépendante comme la CNIL) est adaptée. En cas de crise majeure, il faut être en mesure de prévenir rapidement président et premier ministre.

D'autres pays ont fait le choix de regrouper au sein du même service les activités d'espionnage et celles de protection contre les intrusions (les États-Unis au sein de la NSA, le Royaume-Uni au sein du GCHQ). Ce n'est pas le choix de la France ; il s'agit de deux métiers distincts, même si des contacts peuvent et doivent exister. L'ANSSI est donc parfois informée d'intrusions par des services secrets étrangers.

La suppression de la possibilité de voter par voie électronique aux élections législatives pour les Français de l'étranger a suscité la polémique. Malheureusement, malgré des travaux de sécurisation y compris ces derniers mois, la plate-forme utilisée n'était pas robuste et au niveau des menaces.

En matière de vote électronique, il existe des études théoriques très avancées. Le problème là encore est plus dans la mise en œuvre.

Il faut également rappeler l'actualité de ces derniers mois. Le comité national du Parti démocratique américain (DNC) a fait l'objet d'une attaque informatique qui a donné lieu à des divulgations d'informations — il y a d'ailleurs certaines similarités avec l'attaque sur TV5 Monde. Cela a-t-il déstabilisé le processus démocratique au point d'en changer le résultat ? Nous ne le saurons jamais.

À ce sujet, notons qu'en cas de révélations massives de courriers électroniques et autres données, il est aisé de rajouter au milieu d'informations véritables des fausses informations. Des campagnes de désinformation peuvent ainsi être menées.

Outre ces aspects, les élections posent bien sûr des problèmes classiques de sécurité informatique en ce qui concerne les systèmes de collation des résultats. »

Mme Fioraso a demandé ce que l'on entend par « darknet » et s'il est possible pour une agence comme l'ANSSI d'y recruter des experts.

« Le Dark Net est une expression de journaliste. Il s'agit, en bref, de services Internet non indexés par les moteurs de recherche et mis en place par des gens qui veulent y traiter à l'abri des autorités. On y propose un grand nombre de produits et de services illicites. Le Dark Net donne lieu à bon nombre de fantasmes, mais il ne s'agit pas que de cela.

L'ANSSI recrute des hackers au sens originel du terme, c'est-à-dire des personnes qui aiment la technique, des « bidouilleurs » mais sans connotation péjorative. Elle ne recrute pas de pirates. Ses personnels sont habilités au confidentiel défense, elle ne peut se permettre de recruter des individus peu fiables ou délinquants.

On nous demande si des terroristes pourraient mener des cyberattaques.

Il existe actuellement des groupes mafieux aux bénéfices importants — on parle de milliards — tirés d'attaques informatiques, par exemple du blocage et chiffrement des données dans des ordinateurs avec exigence de rançon pour leur déchiffrement.

Ces groupes mafieux, opérant pour leur profit, peuvent fort bien vendre leurs services à des pays ou groupes hostiles qui n'auraient pas sinon les compétences et capacités de mener eux-mêmes des attaques. Il n'y a d'ailleurs même pas besoin que commanditaires et commandités se rencontrent physiquement. Il y a déjà eu des attaques inhabituelles qui pourraient relever de ce genre d'arrangements.

À plus petite échelle, on trouve sur le Dark Net des prestataires d'attaques à la demande. On peut ainsi acheter une certaine durée d'attaque en déni de service, par exemple contre une entreprise concurrente. »

[Note : Une attaque en déni de service est une attaque informatique saturant un système informatique pour l'empêcher de rendre le service attendu. Par exemple, on pourra saturer un site Web de requêtes afin de le rendre inaccessible aux utilisateurs.]

Une question sur la transparence des fonds publics a été comprise par Mme Fioraso comme une question sur la transparence des frais des élus. Elle a indiqué être en faveur du remplacement de l'indemnité représentative de frais de mandats (IRFM) par un remboursement sur note de frais, comme cela se fait dans les entreprises ou administrations. D'après elle, la mise en place de la Haute autorité pour la transparence de la vie publique (HATVP) a mis un terme aux abus les plus criants. Initialement, les données en étaient publiques sans démarche d'accès, mais cela posait des problèmes de vie privée : par exemple des notaires et avocats s'en servaient dans des procédures de divorce ou d'héritage.

Mme Fioraso a également relevé le danger qu'il y a à ce que des universitaires se posent en opposition aux « élites », car l'opposition aux « élites », le poujadisme, les touche également.

mardi, mars 7 2017

Laissons la sécurité informatique à ceux qui s'y connaissent

Ce matin, France Info expliquait que le Gouvernement supprimait le vote électronique des Français de l'étranger « tout ça pour » des risques d'attaques. Mon sang n'a fait qu'un tour.

La sécurité informatique, c'est compliqué. En position de défenseur, on doit veiller à tous les points d'attaque — il ne sert à rien d'avoir tout sécurisé si on a laissé un maillon faible. Une fois que l'on connaît un peu le sujet — j'ai la fatuité de croire que c'est mon cas — on se rend surtout compte qu'on ne sait pas grand chose et que la tâche est immense.

Autant dire que sur ce genre de sujets, je fais considérablement plus confiance à Guillaume Poupard, directeur de l'Agence nationale pour la sécurité des systèmes d'information (ANSSI) — par ailleurs ingénieur de l'Armement et docteur en cryptographie — qu'à des politiciens ou journalistes. Si l'ANSSI, qui a effectivement expertisé les systèmes informatiques concernés, rend un avis négatif, c'est sans doute qu'elle a de bonne raisons, comme il l'explique.

Je trouve assez déplorable que des journalistes, en adoptant une terminologie non neutre (« tout ça pour »), minimisent des menaces dans un domaine où ils n'ont aucune compétence, reprenant les arguments de certains politiciens.

Ce paragraphe du Monde me semble donner un bon résumé des réserves quant au vote électronique :

A titre personnel, M. Poupard s’est toujours montré très prudent sur le vote électronique et dit préférer le bulletin papier, meilleure garantie contre le piratage. Les critiques contre les systèmes de vote par Internet ne sont pas nouvelles et ont été largement étudiées – la commission des lois du Sénat rappelait ainsi, dans un document de synthèse publié en 2014, que la pratique est intrinsèquement risquée (pdf), tant sur le plan de l’identification de l’électeur que sur les recomptages a posteriori. Son usage pour les Français de l’étranger avait cependant le caractère d’une « nécessité pratique », permettant « d’assurer un égal accès des électeurs au vote », notaient les sénateurs.

Les arguments de certains politiciens peuvent faire sourire : « Cela s’est passé sans risque et sans problème en 2012 » dit Pouria Amirshahi. Faire d'un unique cas une règle, ce n'est guère sérieux, surtout qu'il est très possible qu'entre temps la menace ait changé (on parle d'ingérences étrangères dans les élections américaines). Faut-il rappeler qu'Amazon S3 a parfaitement fonctionné des années jusqu'à une panne massive, entraînant celle de très nombreux sites Internet ?

Je n'ose penser au désordre, accusations, expertises, contre-expertises, en cas de panne ou suspicions de piratage du vote électronique. Veut-on d'un pareil risque à notre époque de suspicion généralisée et de fausses nouvelles ?

lundi, février 27 2017

Le droit n'est pas logique

La lecture de discussions de réseaux sociaux me donne l'occasion d'illustrer la différence entre logique mathématique et langue naturelle. Ce qui suit paraîtra sans doute évident à bon nombre de lecteurs, mais visiblement ce n'est pas évident pour tout le monde !

On me pointe cette tribune d'une professeure de droit, et notamment cet extrait :

« La loi Taubira s’est donc écartée de cette vérité naturelle pour donner du mariage une nouvelle définition, coupée de la réalité anatomique et biologique, et de surcroît logiquement absurde puisqu’elle aboutit à définir une notion par une proposition contradictoire. Le mariage serait désormais l’union de deux personnes de sexe opposé « ou » de même sexe, c’est-à-dire qu’il désignerait à la fois une chose et son contraire absolu. »

Ainsi, d'après cette professeure, il serait logiquement absurde, c'est-à-dire logiquement contradictoire, d'expliquer que le mariage est l'union de deux personnes de même sexe ou de sexe opposé, car « de même sexe » et « de sexe opposé » sont deux propriétés opposées. Je ne comprends guère cette affirmation.

Si l'on admet que le sexe est une propriété (en mathématiques, une fonction) de l'individu, alors deux personnes sont soit de même sexe, soit de sexe différent. Il s'agit de l'application d'un principe logique général, dit du tiers-exclu, qui dit que quelle que soit la propriété étudiée (ici, que les sexes de deux individus soient égaux), alors elle est vraie ou fausse.

(Ce principe du tiers-exclu n'est pas valide dans les logiques dites intuitionnistes, mais celles-ci n'intéressent que les spécialistes. Quand on parle de logique mathématique sans plus de précision, o0n se place dans une logique classique, c'est-à-dire avec tiers-exclu.)

Ainsi, on n'a pas affaire à une contradiction (une propriété toujours fausse), mais à son opposé, une tautologie (une propriété toujours vraie). (En logique mathématique, le terme « tautologie » n'a pas la nuance péjorative qu'il peut avoir dans d'autres contextes. En particulier, une tautologie n'est pas forcément évidente.)

Bref, l'énoncé cité n'est pas plus folichon qu'indiquer que toute carte d'identité française comporte une date de naissance soit égale au premier janvier 1970, soit différente — énoncé équivalent à indiquer que toute carte d'identité comporte la mention d'une date de naissance. On pourrait, en termes strictement logiques, le retirer de la loi. Alors, pourquoi l'indiquer explicitement ?

C'est justement que la langue naturelle (le français, etc.), de même que le droit, n'exprime pas des propriétés strictement logiques. Notamment, l'interprétation d'une phrase en langue naturelle dépend habituellement de présupposés ; et un présupposé assez courant est que le mariage concerne un homme et une femme. Une façon d'indiquer que ce présupposé ne s'applique pas est de faire figurer explicitement une tautologie généralisant voire contredisant le présupposé. (Je suis sûr qu'un linguiste expliquerait cela bien mieux que moi, je ne suis pas linguiste, etc.)

Quelqu'un qui s'exprimerait purement logiquement dans la vie courante serait proprement insupportable, puisque cette personne devrait sans cesse faire le rappel d'une quantité de présupposés partagés. C'est pourquoi on n'explicite habituellement que ce qui risquerait de différer des habitudes de certains — et, l'existence de mariages entre individus de même sexe différant assurément des habitudes, on est bien ici dans ce cas.

La logique mathématique pure a quelques côtés déroutants. Par exemple, si on prend une hypothèse contradictoire, on a le droit de tout en déduire, même des propriétés elles mêmes absurdes. On m'a ainsi raconté la mésaventure d'une équipe chargée de vérifier le fonctionnement d'un dispositif informatique : elle avait prouvé que si les entrées de ce dispositif vérifiaient certaines hypothèses, alors sa sortie vérifiait une certaine propriété désirée… Sauf que les hypothèses sur les entrées figurant dans la documentation étaient contradictoires ! Ils s'étaient donc retrouvés à démontrer une tautologie « si on se place dans un cas impossible, alors les sorties conviennent ». Une interprétation plus pragmatique, et non purement logique, serait que si l'on demande de démontrer que A implique B, c'est que le cas représenté par A est intéressant, ni absurde ni tautologique, et que donc il convient de s'inquiéter si ce n'est pas le cas.

Bref, il est en général malvenu d'appliquer directement la logique mathématique au langage naturel. Si en plus on le fait en confondant tautologie et contradiction...

dimanche, février 26 2017

La vulgarisation doit citer les études scientifiques auxquelles elle se réfère

La vulgarisation scientifique ou technique doit-elle mentionner ses sources, articles ou rapports de recherche ? Pour certains, dont Cécile Michaut, non, si elle s'adresse au grand public : seule une faible fraction de celui-ci pourrait tirer partie de la lecture de ces articles, et les autres pourraient se sentir exclus ou intimidés. Pour d'autres, il s'agit non seulement de permettre à la minorité ayant les compétences d'approfondir le sujet, mais surtout d'une condition indispensable d'honnêteté intellectuelle.

Il m'arrive que l'on me pose des questions au sujet d'informations publiées dans la presse dans des domaines où l'on pense que j'ai quelque compétence (sécurité informatique…). Très souvent, je ne peux rien répondre sinon des généralités, car je n'arrive pas à attacher un sens précis à l'article de presse. J'apprécierais alors d'avoir la source originale à disposition.

Je voudrais toutefois aller plus loin que ce simple constat, et me livrer à une petite digression épistémologique (ce pour quoi je ne suis pas qualifié, n'étant pas philosophe !). Karl Popper proposait comme critère pour déterminer si une affirmation est scientifique qu'elle soit réfutable, c'est-à-dire qu'elle soit formulée d'une façon qu'il soit possible d'en discuter la véracité et le cas échéant de la réfuter. L'affirmation « Pénélope Fillon avait un emploi fictif » est réfutable, en fournissant des preuves (témoignages, documents…) d'un travail effectif — il faut bien entendu différencier réfutable de réfutée, c'est-à-dire que l'on apporte effectivement ces preuves. À l'inverse, l'affirmation « il existe des dieux qui vivent dans un univers parallèle au nôtre, mais qui n'interviennent pas dans le nôtre » n'est pas réfutable, puisqu'il est impossible de concevoir une possible preuve qu'elle est fausse.

Si un texte est écrit de façon si vague que l'on ne puisse savoir ce qu'il veut dire, alors il est irréfutable, car il est impossible de le prendre en défaut. Si un article de vulgarisation me dit qu'une étude publiée par tels auteurs sous tel titre aboutit à telle conclusion, cette affirmation est réfutable : on peut se rapporter à l'étude et avoir un débat si celle-ci aboutit ou non à la conclusion prétendue. Si en revanche on me dit qu'une « étude américaine » aboutit à une certaine conclusion, cette affirmation n'est pas réfutable — je ne peux pas consulter l'entièreté des études publiées sous une forme quelconque par des américains et vérifier si l'une d'entre elles n'aurait pas une conclusion de ce genre.

Celui qui s'exprime de façon vague ne prend guère de risque, de même d'ailleurs que celui qui, a posteriori, invoque la nécessité d'une nécessaire interprétation métaphorique de ses propos. Il ne peut jamais avoir tort !

Revenons à la question de la vulgarisation scientifique. Je fais plus confiance à un article qui cite précisément l'étude sur laquelle il s'appuie qu'à un article qui ne le fait pas précisément parce qu'il s'expose à la critique, à la réfutation, par des experts. L'auteur s'estime suffisamment assuré de ses propos pour cela. À l'inverse, celui qui parle sans source et dans le flou veut peut être dissimuler ses approximations ou extrapolations.

- page 1 de 92