La vie est mal configurée

Aller au contenu | Aller au menu | Aller à la recherche

vendredi, mai 26 2017

Les revues scientifiques bidons, suite

Le journaliste du Monde Pierre Barthélémy appelle la Science à « faire le ménage » des revues scientifiques bidons. Comme dans mon billet précédent, je déplore la confusion entre deux problèmes à mon avis distincts.

Le premier problème est le lancement, à des fins de rentabilité financière, de conférences et revues « scientifiques » qui invitent des orateurs ou publient des articles sans qu’il n’y ait d’évaluation scientifique (ou, ce qui revient au même, avec une évaluation sciemment ignorée).

Il convient ici de rappeler que ni la science ni l’édition scientifique ne sont des professions réglementées, comme le sont par exemple la médecine ou la pharmacie. N’importe qui peut se dire philosophe, sociologue, astrophysicien… et d’ailleurs les médias, dont le Monde, ne se privent pas de présenter comme des scientifiques des individus qui ne jouissent d’aucune reconnaissance de la part de la communauté scientifique. De même n’importe qui peut fonder une « revue scientifique », et la communauté scientifique n’a pas plus de moyen de faire fermer celle-ci qu’elle n’en a d’interdire aux télévisions et aux magazines de faire se parader des charlatans.

Les revues et conférences totalement bidons, sans vrai comité scientifique, sont en dehors de la communauté scientifique. Tout ce que celle-ci peut faire à leur égard, c’est de ne pas tenir compte de leurs articles et présentations dans l’évaluation des curriculum vitæ de chercheurs ou des demandes de financements. C’est déjà très largement le cas.

Un second problème, distinct dans ses processus comme dans ses conséquences, est l’existence de revues en apparence sérieuses — notamment, munies de comités d’universitaires appartenant à des organismes réputés et bénéficiant d’autres signes extérieurs de réputation (grade élevé, invitations…). C’est ce que visaient les canulars Sokal et Tremblay.

Une telle revue ne peut exister qu’avec des soutiens dans la communauté scientifique, voire l’existence de toute une école de pensée et d’équipes de recherche liées. Le problème n’est donc plus celui d’une publication, mais de toute une communauté. Si telle revue n’est pas sérieuse, alors il en est de même de son directeur éditorial… mais que dire alors de ceux qui l’ont promu à son poste universitaire ? Les ramifications et les implications humaines sont importantes.

Ces sujets sont d’autant plus délicats que la mise en lumière d’un manque de sérieux chez certains auteurs, dans une certaine école de pensée… peut être perçue comme une attaque globale sur une discipline entière, voire un groupe de disciplines. On se rappellera par exemple la polémique intense ayant suivi la sortie d’Impostures Intellectuelles, perçu comme une attaque de physiciens étrangers contre les sciences humaines et sociales françaises. Une telle critique est inaudible pour ceux qui devraient l’écouter.

Que faire ? Je ne le sais pas. Et vous ?

lundi, mai 22 2017

Sur la portée expérimentale des canulars dans les publications scientifiques

On connaît la pratique de l’article canular dans les revues scientifiques. Le scénario est toujours un peu le même :

  1. Un article dénué de sens mais qui respecte superficiellement les canons d’un domaine scientifique (présentation, vocabulaire, bibliographie, formules mathématiques le cas échéant…) est soumis à une revue ou conférence.

  2. L’article est accepté, ce qui laisse supposer qu’il n’a pas été soumis à la relecture d’experts (ou que leurs avis ont été totalement ignorés).

  3. Les auteurs de l’article informent le public ; parfois les médias reprennent l’information. Des conclusions sont éventuellement tirées, à plus ou moins bon escient, sur la scientificité du domaine scientifique concerné ou sur le sérieux d’un mode d’édition.

Je ne prétends pas ici fournir un historique du genre, et me limiterai donc à quelques faits marquants.

Le canular le plus célèbre de ce genre est sans doute celui du mathématicien et physicien Alan Sokal en 1996, débouchant sur « l'affaire Sokal ». En 2005, des chercheurs en informatique du Massachusetts Institute of Technology font accepter à une conférence un article généré automatiquement, aléatoirement et totalement dénué de sens. Leur logiciel SCIgen est modifié et adapté et d’autres font accepter des articles similaires. En 2013, un journaliste de la revue Science piège un bon nombre de revues avec un article de biologie bidonné. En 2015, des sociologues du Carnet Zilsel font accepter un article ridicule, signé d’un québécois fictif nommé Jean-Pierre Tremblay, à une revue de sociologie française.

Je pense que, malheureusement, une bonne partie des commentaires sur ces canulars mélangent des choses qui ne le devraient pas.

SCIgen visait des conférences qui étaient largement connues des scientifiques du domaine comme étant bidon (ce qu’on appelle parfois conférences prédatrices). En résumé, des gens organisaient des conférences dans des lieux touristiquement intéressants (par exemple : Orlando, Floride), mais acceptaient comme intervenants n’importe qui à condition que celui-ci règle les frais d’inscription, alors qu’une conférence scientifique respectable les sélectionne (soit par invitation, soit par appel à soumission d’un résumé voire d’un article complet). Ce canular a eu le mérite de confirmer publiquement des soupçons très largement partagés. En revanche, il ne dit rien sur le sérieux des champs scientifiques concernés, vu que ces conférences sont très largement rejetées par les acteurs de ces champs.

Sokal visait une revue (Social Text) éditée par les presses d’une grande université américaine et avec un comité éditorial apparemment respectable. Le canular Tremblay visait une revue, Sociétés, fondée et longtemps dirigée par Michel Maffesoli, sociologue français parvenu jusqu’au plus haut grade de la hiérarchie universitaire. Il y a là une certaine légitimité pour une discussion sur le sérieux d’une revue, d’une école de pensée, bien qu’évidemment il soit périlleux de conclure sur une unique expérience (une expérience statistiquement significative supposerait probablement un effort considérable, tandis que les canulars Sokal et Tremblay relevaient d’une sorte de hobby).

Certaines expériences menées visaient des revues Open Access dont le modèle économique repose exclusivement sur les frais de publication. Ces revues ont donc avantage, pour dégager du profit, à publier le plus d’articles, et certaines ne contrôlent pas ce qu’elles publient. Là encore, rien qui ne soit déjà fortement soupçonné : il existe de multiples signes qui incitent à la méfiance…

Plus que les expériences en elles-mêmes, ce qui paraît discutable ce sont les conséquences que certains prétendent en tirer. Qu’il soit possible d’obtenir de parler dans une conférence d’informatique non reconnue par les informaticiens ne permet pas de déduire grand-chose de l’informatique. Qu’il soit possible de publier des âneries dans certaines revues Open Access ne permet de conclure que l’ensemble des revues Open Access manquent de sérieux ; tout au plus qu’il faut être vigilant et attentif au comité éditorial et à son fonctionnement. Qu’il soit possible de publier des textes dénués de sens dans des revues de sociologie ou d’études de genre ne permet pas de conclure que la sociologie ou les études de genre sont des pseudo-sciences ; tout au plus d’avoir des soupçons sur certaines « chapelles » et sur les mécanismes qui ont permis leur installation. Peut-être l’occasion d’études de sociologie des sciences sociales ?



jeudi, mai 18 2017

Équivalence des représentations de polyèdres convexes

On sait qu’un polyèdre convexe borné peut s’exprimer aussi bien comme l’enveloppe convexe V d’une famille de points que comme l’intersection H d’une famille finie de demi-espaces. On peut donc vouloir vérifier que deux telles représentations sont équivalentes.

On montre facilement que ce problème est dans co-NP :

  1. L’inclusion V ⊆ H se vérifie aisément (produit de matrices).

  2. H ⊊ V si et seulement si il existe un sommet de H (choix non déterministe sur les contraintes à intersecter) qui sort de V (test par programmation linéaire sur les coordonnées barycentriques).

Apparemment, la complexité de ce problème est inconnue ! Pas d’algorithme polynomial connu, pas de preuve de complétude…

PS L'algorithme suivant (pour polyèdres bornés) ne fonctionne pas :

  1. On minimise les représentations sommets et contraintes (un appel de programmation linéaire pour chaque sommet ou contrainte par rapport aux autres, soit temps polynomial).
  2. On vérifie l'inclusion des sommets dans les contraintes (produit de matrices).
  3. On vérifie que chaque contrainte sature au moins d sommets et chaque sommet au moins d contraintes et qu'aucune contrainte (resp. sommet) ne sature un sur-ensemble des sommets (resp. contraintes) saturés par une autre contrainte (resp. sommet).
En effet, la condition 3. est validée par un cube dont on a ôté un des sommets de la liste des générateurs.

mercredi, mai 17 2017

Sur la rédaction des articles scientifiques, 2

Comme l’a fait remarquer un lecteur, mon précédent billet sur le sujet aurait pu se résumer à : « il faut tout mettre en œuvre pour que l’article soit compréhensible, et en tout cas éviter les obstacles à la compréhension ». Venons-en à des désirs plus généraux.

J’aime, lorsque je lis un article, savoir où l’on va et pourquoi l’on introduit telle ou telle définition.

J’aime que l’on situe les résultats et qu’on en explique la signification, notamment si l’on est dans un champ avec un grand nombre de résultats voisins mais avec des différences subtiles — sachant que parfois certaines différences sont superficielles mais sans importance réelle, et d’autres changent la nature du problème.

J’aime savoir pourquoi on a étudié une question. C’est parfois difficile à expliquer, et les explications bateau du genre « avec l’essor du Big Data dans le Cloud il est important d’étudier le parallélisme, pour lequel les automates de Bzyknowicz à poil dur forment un cadre élégant » ne sont souvent que de peu d’intérêt. Je suis conscient qu’un champ d’étude finit par avoir une vie propre indépendante du problème qui lui a donné naissance.


Deux conseils de rédaction aux doctorants

Divers sites donnent des conseils de rédaction aux doctorants. Pour ma part, j’estime qu’il y a une grande diversité de méthodes de travail valables, qui plus est dans une grande diversité de disciplines, et qu’il est donc périlleux de proposer des conseils généraux. Je me limiterais donc à deux conseils.

Prendre des notes

On oublie tout : idées, références, citations, schémas d’expériences, conditions de mesure, mode d’emploi de logiciels. Donc il faut tout noter pour pouvoir tout retrouver. Je sais que ça a l’air évident mais on se fait toujours avoir.

Utiliser un correcteur orthographique voire grammatical

Tout le monde finit par faire des fautes d’orthographe ou de grammaire, certains plus que d’autres. J’entends parfois des gens expliquer qu’il s’agit de négligences coupables, qu’il suffit de s’appliquer, que cela aurait dû être acquis à l’école primaire, qu’on peut suivre des cours de rattrapage — cela n’est pas mon propos. Je constate cependant qu’un texte émaillé de fautes fait mauvais effet.

Je pense que c’est un peu tard pour aborder ce genre de problèmes et que pendant les trois ans d’un doctorat on n’a pas le temps de les pallier. J’estime qu’en revanche ne pas utiliser les correcteurs orthographiques, voire grammaticaux, livrés dans tous les traitements et éditeurs de textes, relève de la négligence.

(Si votre logiciel ne fournit pas de correcteur grammatical, vous pouvez essayer LanguageTool.)

mardi, mai 16 2017

Mystère et boule de gomme

Je voudrais aujourd’hui illustrer un peu le fonctionnement de la recherche au quotidien.

Notre équipe travaille entre autres sur l’algorithmique des polyèdres convexes. Si vous ne savez pas ce qu’est un polyèdre convexe, peu importe : il suffit de savoir que ce sont des objets mathématiques sur lesquels nous voulons calculer, et que donc nous devons proposer des méthodes de calcul, autrement dit des algorithmes, efficaces, c’est-à-dire calculant le résultat attendu en n’utilisant qu’une quantité réduite de temps et de mémoire.

Un collègue pense avoir l’idée d’une méthode pour vérifier (je ne rentre pas dans les détails) que deux représentations décrivent en fait le même polyèdre. Nous connaissons des méthodes pour cela, mais elles peuvent être inefficaces.

Après recherche dans une FAQ et la bibliographie, il s’avère que dans la première moitié des années 1990 un éminent chercheur a posé la question de l’existence d’une telle méthode efficace. On peut raisonnablement se dire que s’il existait une méthode efficace et assez simple, il l’aurait trouvée.

Toutefois :

  1. Si on commence par partir perdant en se disant que tout ce à quoi l’on peut songer a dû être fait avant par des gens plus forts, on ne fait plus de recherche.

  2. Ce n’est pas parce qu’en 1994 on ne savait pas quelque chose qu’il en est de même en 2017.

  3. Il se peut que la méthode du collègue soit inefficace dans le pire cas, mais que ce pire cas ne se produit que dans des circonstances particulières.

  4. Il se peut que la partie complexe puisse être gérée par des procédures connues souvent efficaces en pratique.

  5. Rien que comprendre dans quels cas l’idée du collègue pourrait être inefficace nous apprendrait des choses.

Affaire à creuser, donc.

(J’ai par ailleurs envoyé des courriels à l’éminent chercheur et à quelques autres auteurs d’articles anciens sur le sujet pour savoir s’ils ont entendu parler de résultats plus récents...)

mercredi, mai 10 2017

Sur la rédaction des articles scientifiques

En tant que chercheur, je rédige des articles scientifiques, et j’en lis beaucoup — y compris pour les évaluer, lorsque je suis membre d’un comité éditorial ou qu’un comité me sollicite comme expert extérieur. Je vais ici tenter de résumer les caractéristiques que j’apprécie dans les articles que je lis (et que je m’efforce de respecter pour mes propres articles, bien que je n’y arrive pas forcément) et celles qui me rebutent (et que je m’efforce d’éviter pour mes propres articles, et là encore je n’y arrive pas forcément).

Il s’agit bien entendu d’une vision assez subjective, non seulement relative à mes goûts personnels, mais aussi à mon champ de recherche, et je ne prétends donc nullement édicter des règles générales. Peut-être cependant certaines des remarques ci-dessous peuvent s’appliquer dans d’autres contextes.

Les définitions

Chaque terme, chaque notation, nouveau ou qui risque de prêter à confusion doit être introduit, fût-ce brièvement, avant son usage. Il vaut mieux pécher par excès de précisions que par manque.

Bien entendu, on ne va pas redéfinir l’ensemble des termes censément connus du lectorat de l’article : par exemple, je peux supposer que le lecteur sait ce qu’est un espace vectoriel de dimension finie. Il faut toutefois ici se méfier des concepts, notations, terminologies que l’on pense « bien connues » alors qu’elles ne le sont que dans un certain sous-domaine scientifique, une certaine école de pensée, un certain pays…

Je préfère que l’on évite, dans la mesure du possible, les notations équivoques ou personnelles, et, s’il y a pluralité d’interprétations raisonnables, préciser laquelle est en jeu. Par exemple, j’ai lu un article qui utilisait, sans l’introduire, la notation vu et v sont deux vecteurs de réels ; or < désigne souvent l’ordre strict associé à une relation d’ordre large notée ≤, qui ici était l’ordre produit coordonnée par coordonnée (bref, v si sur toute coordonnée i, ui ≤ vi et il existe une coordonnée j telle que uj < vj). Or, l’article entendait par v que sur toute coordonnée i, ui < vi. J’ai dû pour le comprendre lire le détail des preuves, alors que normalement on doit pouvoir comprendre l’énoncé des théorèmes sans consulter les preuves.

Lorsqu’un nouveau terme est introduit, j’aime que cela soit fait explicitement, ou du moins que la tournure de phrase ou la typographie (par exemple, l’italique) me l’indiquent. Sans cela, je suppose, par défaut, que j’ai lu trop hâtivement les pages précédentes et je reviens en arrière à la recherche de la définition du terme ; ce qui, bien évidemment, n’est d’aucun intérêt si celle-ci est dans le paragraphe suivant !

Il est possible que l’on touche ici aux limites du document textuel traditionnel, séquentiel, destiné, au moins formellement, à être lu dans l’ordre du début à la fin. J’apprécie, toutefois, que lorsqu’un document fait usage d’une définition lointaine, il renvoie à celle-ci par un lien hypertexte — ceci est d’ailleurs facile sous LaTeX en utilisant hyperref.

Les résultats

J’apprécie que les principaux résultats d’un article soient mis en exergue, et, dans la mesure du possible, soient exprimés dans un langage limitant les prérequis de lecture (définitions, notations) afin de faciliter leur utilisation dans d’autres travaux.

Prenons un exemple concret (je m’excuse d’avance auprès de mes lecteurs qui ignoreraient ce résultat) : le Nullstellensatz peut s’exprimer en termes de variétés algébriques, d’idéaux, d’idéaux radicaux (ce qui suppose que le lecteur connaisse les définitions de ces termes ou du moins aille consulter), ou en termes plus concrets de sommes et de produits de polynômes à plusieurs variables.

Plus proche de moi, les résultats d’analyse statique par interprétation abstraite peuvent s’exprimer en termes d’invariants inductifs (concept que toute personne du domaine est censé connaître) ou avec des notations spécifiques à une certaine école scientifique (α, γ, ♯…).

Les références bibliographiques

Certaines références bibliographiques sont là pour donner au lecteur un cadre général, des possibilités d’approfondissement… il est alors adapté de citer une publication entière. En revanche, lorsqu’il s’agit d’appuyer un fait précis, j’aime que la citation soit elle aussi précise, donnant non seulement la publication concernée mais aussi le numéro de la définition, du théorème, ou de la page où se reporter. C’est d’autant plus important que la rédaction est elliptique : je me rappelle ainsi avoir lu des articles qui utilisaient un théorème sans citer l’énoncé de celui-ci et en donnant comme seule référence « (Lang, Algebra) » (un ouvrage de 914 pages).

Dans les bibliographies, j’apprécie les hyperliens vers des versions des articles ou autres documents dans des dépôts d’archives ouvertes (HAL, arXiv…). Les liens DOI sont en général moins utiles, car ils conduisent vers les sites payants des éditeurs. Mon expérience (là encore spécifique à un domaine, à certains laboratoires) en tant que correspondant documentation est qu’une grande partie des chercheurs, même si leur laboratoire est abonné, ne savent pas accéder aux articles sur ces sites, dont on peut parfois déplorer la complexité d’utilisation (devoir passer par des proxies, VPN, etc.). Pour des livres, on peut envisager un lien vers WorldCat.

En revanche, certaines indications traditionnelles des bibliographies ne me sont guère de secours. Ainsi, que m’apporte le fait de savoir qu’un livre édité par Springer, un grand groupe international, l’est officiellement à New-York, Heidelberg, ou Berlin ? Une telle indication se justifie pour des petits éditeurs régionaux, mais sinon ?

L’écriture allusive

Voici un travers dans lequel j’ai peur de tomber fréquemment. Lorsque l’on parle de son propre travail, on en vient parfois à parler pour soi-même, ou du moins pour un lecteur qui aurait fait le même chemin intellectuel. Cela donne parfois des travaux dont le lecteur, après avoir lui-même beaucoup réfléchi après avoir échoué à comprendre l’article, finit par dire « ah, c’est cela qu’ils voulaient dire ! ». Certaines remarques sont alors parfois d’un intérêt nul : incompréhensibles pour qui ne connaît pas le sujet, elles sont évidentes pour qui le connaît…

Une bonne méthode pour éviter ce travers me semble être de donner l’article à relire à quelqu’un de suffisamment proche du sujet pour représenter le lectorat potentiellement intéressé, mais suffisamment « naïf » pour ne pas trouver évident le cheminement.

Les résultats expérimentaux

Souvent, les courbes, diagrammes, tableaux de chiffres fournis en fin d’article pour justifier qu’une méthode fonctionne « en vrai » me semblent peu clairs. Parfois je ne comprends même pas ce qui est mesuré, à quoi correspondent tels ou tels symboles, ce qui est en abscisse et en ordonnée… (j’ai par exemple été longtemps rendu perplexe par les « cactus plots »). J’aime voir des légendes précises et explicites.

Choisir

Toute rédaction suppose un choix : telle remarque est-elle utile, bien à sa place ? Le message que nous désirons transmettre n’est-il pas brouillé ? Telle image, telle analogie qui nous a paru adroite ne l’est peut-être pas ; et même si elle l’est, elle n’est peut être pas adaptée à l’ordre d’exposition.

L’ordre d’exposition relève lui-même d’un choix quelque peu arbitraire. Sur le même article, un premier relecteur nous demanda comme une évidence d’intervertir deux sections, et, une fois que cela fut fait, un autre nous demanda de les intervertir à nouveau. Les deux ordres se justifient, mais il faut bien en choisir un.

Dans des textes écrits en collaboration, la difficulté est parfois justement de choisir, car chacun tient à sa remarque, son angle. Le résultat peut alors être confus. C’est à mon avis une des grandes difficultés de Wikipédia, notamment sur les articles traitant de sujets vastes.

En résumé

D’une façon générale, je pense qu’un article doit être écrit d’une façon qui facilite la compréhension du lecteur, quitte à exiger plus de travail des auteurs. (D’un point de vue éthique, cela peut se justifier en arguant que les lecteurs sont plus nombreux que les auteurs.) Il ne s’agit pas de considérer que le lecteur est stupide ou fainéant, mais de prendre acte qu’il n’a pas forcément les mêmes connaissances, les mêmes notations, la même façon de présenter que les auteurs, et que son temps disponible n’est pas infini.

Même si on ne fait pas ce travail pour le lecteur final, il faut aussi prendre acte qu’avant de toucher celui-ci, on doit passer le barrage de l’évaluation par les pairs, et que les évaluateurs, eux non plus, n’ont pas un temps infini et ne sont pas forcément de la même école scientifique.

Quelqu’un m’a un jour affirmé que je devrais publier en français plutôt qu’en anglais, vu que, si mes travaux étaient réellement intéressants, les gens apprendraient le français pour les lire. Je ne souscris pas à ce point de vue : pour être lu, il faut être lisible.

dimanche, mars 26 2017

Les propos trompeurs d'Hervé Mariton sur les rémunérations des professeurs des universités

Dans l'émission On n'est pas couché du 25 mars 2017, le député Hervé Mariton a expliqué, afin de minimiser les turpitudes de certains parlementaires, que ceux-ci sont moins bien payés que les professeurs des universités, et que la plupart de ces derniers ont des activités complémentaires rémunérées. Rappelons quelques faits.

Un député (hors cas spéciaux : président, vice-présidents, questeurs, mieux rémunérés) gagne environ 7200€ bruts mensuels. Le traitement brut mensuel d'un professeur des universités varie, suivant le grade et l'ancienneté, 3200€ et 6200€, auquel on ajoute environ 1000€ annuel de prime d'enseignement et recherche. Encore faut-il signaler que ce traitement à 6200€ est en toute fin de carrière pour les professeurs de classe exceptionnelle, grade qui, comme son nom l'indique, est exceptionnel.

Peuvent, dans certain cas, s'ajouter à cela une prime d'encadrement doctoral et de recherche (3500€ ou 7000€ par an, 15000€ pour les titulaires de prix Nobel et d'autres hautes distinctions scientifiques) ou d'autres primes, par exemple pour la gestion d'un projet du Conseil européen de la recherche (ERC), ces projets étant attribués au terme d'un processus très compétitif. Peuvent également s'ajouter des heures complémentaires d'enseignement, ou encore des intéressements lorsque l'activité du chercheur a produit des brevets ou licences de logiciels commercialisées.

Bref, pour qu'un professeur des universités atteigne la paye d'un parlementaire de base, sans cumul avec d'autres activités, il faut une configuration rare : un professeur de classe exceptionnelle qui cumule avec des primes difficiles à obtenir (par exemple, Cédric Villani, médaillé Fields, doit effectivement toucher plus de 7000€ par mois). On comprend donc en quoi les affirmations de M. Mariton sont trompeuses, puisqu'elles présentent un cas exceptionnellement favorable comme représentatif de la profession.

Ajoutons que les professeurs des universités sont une minorité parmi les enseignants à l'université. Parmi les personnels permanents, ils ne représentaient en 2010 que 27 % environ, alors qu'il y avait 53 % de maîtres de conférence et 20 % d'enseignants du second degré, ces deux dernières catégories étant moins bien payées. Une grande partie des enseignements sont par ailleurs assurés par des enseignants temporaires, notamment des vacataires, parfois précaires, et en tout cas encore moins bien payés.

M. Mariton prétend également que la plupart des professeurs des universités ont des activités complémentaires. J'ignore si c'est le cas, mais il faut ici rappeler qu'au sens du droit de la fonction publique, il suffit d'une seule heure de travail rémunéré en dehors de l'emploi principal pour qu'on parle d'« activité complémentaire » nécessitant l'autorisation de l'employeur ; donc un professeur d'université qui donne une fois l'an une conférence rémunérée dans une grande école et quelques heures de cours dans une autre, le tout pour quelques centaines d'euros, sera considéré comme ayant deux activités complémentaires. Ceci est bien évidemment sans rapport avec les montants dont on discute en matière de rémunérations des parlementaires.

Pour des rémunérations complémentaires en dizaines de milliers d'euros annuels, je vois surtout les activités de consultant (je ne connais personne dans ce cas) et l'exercice libéral (avocats..) des professeurs des universités en droit et matières proches. Là encore, on ne peut décrire comme un fait majoritaire ce qui ne relève que d'une minorité.

On pourrait mettre sur le compte de l'ignorance pareilles affirmations. M. Mariton, en effet, est membre d'un parti dont les soutiens les plus vulgaires considèrent que les fonctionnaires sont des privilégiés surpayés, il ne ferait que reprendre, sous une forme certes plus polie (il est polytechnicien), le même genre de slogans. Or, son épouse est elle-même chercheuse et à ce titre sait sans doute fort bien à quoi s'en tenir concernant la rémunération des professeurs des universités. Je suis donc bien forcé de considérer la possibilité qu'il ait sciemment menti à des fins démagogiques.

PS Mon propos n'est évidemment pas que les professeurs des universités sont particulièrement à plaindre au regard du reste de la population française, mais seulement de redresser des affirmations trompeuses sur un sujet que je connais. Il me semble très probable que les allégations de fraudes aux aides sociales soient du même acabit — l'assimilation d'un cas minoritaire à la majorité ; mais je ne connais pas le sujet.

PS² On m'évoque les hospitalo-universitaires. C'est un sujet que je connais mal (il me semble qu'ils cumulent une rémunération d'enseignant-chercheur, une de pratique hospitalière, et d'éventuels exercices libéraux, mais je peux me tromper), mais qui ne concerne de toute façon qu'une minorité des professeurs des universités.

vendredi, mars 17 2017

Les missions des enseignants-chercheurs

J'évoquais dans mon billet précédent un récent article du Canard Enchaîné évoquant les conditions auxquelles un professeur des universités est employé comme déontologue de l'Assemblée nationale. Une chose me dérange dans la présentation donnée par le Canard, comme d'ailleurs dans d'autres affaires semblables : le travail du professeur des universités n'est évoqué que sous l'angle des heures de cours à effectuer, et de l'éventuelle dispense totale ou partielle d'assurer celles-ci. Le lecteur non averti pourrait concevoir la fausse idée que le travail d'un professeur des universités se limiterait à donner 192 h de cours par an !

Selon le Code de l'éducation (article L952-3),

« Les fonctions des enseignants-chercheurs s'exercent dans les domaines suivants :

  1. L'enseignement incluant formation initiale et continue, tutorat, orientation, conseil et contrôle des connaissances ;

  2. La recherche ;

  3. La diffusion des connaissances et la liaison avec l'environnement économique, social et culturel ;

  4. La coopération internationale ;

  5. L'administration et la gestion de l'établissement. »

Ainsi, outre l'enseignement proprement dit, un professeur ou maître de conférences des universités a des missions d'administration de l'enseignement, d'administration de la recherche, de vulgarisation, de valorisation (dépôts de brevets, collaborations avec l'industrie…). Quant à l'enseignement, le travail ne se limite pas à 192 h de cours par an (en réalité, 192 h « équivalent TD ») — en effet ce décompte ne tient pas compte du temps de préparation des cours (parfois très lourde s'il s'agit d'aborder un sujet nouveau pour l'enseignant, s'il y a rédaction de supports de cours, etc.), de la rédaction de sujets d'examen et de leur corrections, des oraux, des jurys, de la coordination des enseignants…

Quant à la mission de recherche, elle concerne toutes les disciplines et non seulement les « sciences exactes » (c'est sans doute évident pour certains lecteurs mais pas pour tous). Ses modalités varient considérablement d'un domaine à l'autre, mais on retrouve il me semble partout qu'il s'agit de développer de nouvelles idées ou connaissances, ou de valider ou invalider des idées existantes, dans le respect de certaines règles et notamment de la méthode scientifique, avec in fine la publication de résultats validés par les pairs scientifiques.

De plus, notons que les 70000€ annuels de salaire cités dans l'article du Canard ne concernent pas l'ensemble des professeurs des universités, mais seulement ceux de « classe exceptionnelle » (grade auquel on peut éventuellement accéder en fin de carrière et dont l'accès est plafonné afin de lui conserver son caractère exceptionnel).

Le déontologue de l'Assemblée nationale et les activités privées des professeurs de droit

Le Canard Enchaîné a révélé que le déontologue de l'Assemblée nationale exerçait cette fonction en sus de son activité principale de professeur en droit public sans que son université ait autorisé un cumul de rémunérations. C'est l'occasion pour moi de quelques rappels.

La règle générale est qu'un fonctionnaire « consacre l'intégralité de son activité professionnelle aux tâches qui lui sont confiées » (loi n⁰83-634 du 13 juillet 1983, article 25 septies) et ne peut exercer d'activité secondaire rémunérée qu'avec l'autorisation de son employeur, quelle que soit l'ampleur de cette activité, qu'il s'agisse d'une conférence de deux heures ou d'un travail tout au long de l'année. Le non-respect de cette règle peut entraîner des poursuites disciplinaires, en sus du remboursement à l'employeur public des sommes indûment perçues.

Je connais deux exceptions à cette règle (ibid., V) — il peut en exister d'autres. La première concerne les rémunérations en droits d'auteur pour la production d'œuvres de l'esprit (publication de livres, notamment). La seconde concerne « les membres du personnel enseignant, technique ou scientifique des établissements d'enseignement et les personnes pratiquant des activités à caractère artistique [, qui] peuvent exercer les professions libérales qui découlent de la nature de leurs fonctions. ». Notamment, les professeurs de droit peuvent exercer une activité d'avocat, si ce n'est qu'il ne peuvent plaider au profit d'une personne privée contre l'État. Si ces exercices libéraux ne sont pas soumis à autorisation, il existe un système de déclaration préalable (dont j'ignore le caractère obligatoire).

Il arrive que des fonctionnaires exercent des activités secondaires soumises à autorisation préalable sans cette dernière. Le cas le plus fréquent est qu'en raison de la désorganisation des organismes publics, il ne leur est possible de demander l'autorisation qu'après le début de l'activité — j'ai ainsi demandé, et obtenu, une autorisation pour donner des cours en master deux mois après le début des dits cours car les établissements co-gérant ce master ne s'étaient pas mis d'accord sur qui devait payer les vacations des enseignants, or le formulaire d'autorisation demande le nom de l'établissement payeur. Il paraît — quelle horreur ! — que certains exercent sans autorisation des activités auprès d'employeurs privés en tirant partie du fait que ceux-ci, au contraire de tous les employeurs publics dont j'ai la connaissance, n'exigent pas la production de cette autorisation avant de verser la rémunération.

Il est extrêmement surprenant pour moi qu'un professeur de droit ait pu ignorer pareilles règles, que n'importe quel chercheur en sciences connaît, et qu'un organisme public — l'Assemblée nationale — ait accepté de verser une rémunération à un fonctionnaire sans exiger une autorisation de cumul. Il est vrai que le Parlement semble le royaume des exceptions aux lois qu'il vote et au fonctionnement normal des conditions d'emploi et d'indemnisation...

On s'est ému, à juste titre, de la trop grande proximité de certains chercheurs en biologie ou médecine avec des groupes de pression et des industriels ayant avantage à ce que la dangerosité, l'innocuité ou l'efficacité de tel ou tel produit ne soit établie. Encore ces chercheurs ne peuvent-ils exercer d'activité rémunérée au profit de ces industriels qu'avec une autorisation — et, à ma connaissance, au moins au CNRS, la délivrance de celle-ci donne lieu à contrôle d'éventuels conflits d'intérêts.

Je m'étonne, dans ces circonstances, du blanc-seing accordé à des activités libérales dans des domaines tels que le droit ou l'économie. Doit-on admettre, par exemple, qu'un professeur de droit consulté par la puissance publique au sujet de la législation et de la réglementation d'un domaine soit en même temps consultant ou avocat pour les industriels et autres intérêts privés de ce domaine ?

dimanche, mars 12 2017

Geneviève Fioraso regretterait-elle la création du millefeuille administratif ?

Vendredi dernier, Mme Geneviève Fioraso, députée de l'Isère et surtout ancienne ministre de l'enseignement supérieur et de la recherche, prononçant une petite introduction inaugurale avant l'exposé de Guillaume Poupard, a remarqué que les dirigeants politiques avaient suscité la création de trop de nouvelles structures et a souhaité que les universitaires soient plus sages.

Ces propos font écho à d'autres de la même Geneviève Fioraso, inaugurant le laboratoire d'excellence Persyval, où elle faisait remarquer qu'on avait créé beaucoup, peut-être trop de nouvelles structures (LABEX, IDEX, etc.).

Je ne peux m'empêcher de me demander pourquoi et comment des dirigeants politiques en viennent à expliquer qu'ils ont pris de mauvaises décisions comme s'il s'était agi d'une fatalité, de décisions extérieures à eux.

J'aurais aimé que Geneviève Fioraso explique — bien entendu pas lors de ces inaugurations, ce n'était pas le sujet — pourquoi elle a mené cette politique qu'elle semble regretter et qui a abouti à des mille-feuilles administratifs.

samedi, mars 11 2017

Les solutions miracles dans l'enseignement de l'informatique

Depuis quelque temps, les médias vantent la « pédagogie innovante » de certains établissements atypiques d'enseignement de l'informatique. En résumé, on laisse les étudiants se débrouiller et interagir, et ils deviennent des programmeurs, sans avoir à suivre de cours, sans nécessiter d'enseignants. Le sous-entendu est évident : les méthodes classiques d'apprentissage universitaire (cours, travaux dirigés, travaux pratiques) sont inadaptées, les enseignants universitaires dépassés, les apprentissages peu réalistes par rapport aux attentes industrielles…

J'ai une certaine expérience de l'enseignement de la programmation. Je discute avec mes collègues. Voici comment cela se passe, souvent, dans une vraie séance de travaux pratiques (TP) :

Un étudiant se plaint que « ça ne fonctionne pas » et que l'ordinateur s'est trompé (alors qu'évidemment l'erreur est dans ce qu'il a écrit).

Un étudiant dit qu'il n'y a pas de documentation, ou se plaint que celle-ci est en anglais (à peu près toutes les documentations techniques de programmation sont en anglais).

Un étudiant asiatique tape du code sans jamais essayer de l'exécuter car il ne sait pas comment faire et n'ose pas demander.

Un étudiant copie du code sans le comprendre depuis un autre programme.

Un étudiant se plaint que « ça ne marche pas », on lui dit de lire les messages d'erreur et notamment le premier, il ne le fait pas et continue de regarder son écran en disant « ça ne marche pas ! ».

D'une façon générale, un TP de programmation débutants, c'est pour l'enseignant entendre un flux interrompu de « monsieur ! » (et pour l'enseignante, « madame ! ») et courir d'un étudiant à l'autre, chacun coinçant sur son problème.

Autant dire que quand on a cette expérience, on éprouve un certain scepticisme quant à la portée d'une pédagogie fondée sur le travail autonome, sans enseignants. Non que cela soit impossible — on connaît bon nombre de gens ayant appris la programmation par eux-mêmes, c'est d'ailleurs mon cas — mais manifestement cela ne convient pas à de très nombreux étudiants, sans doute la majorité.

Une telle pédagogie convient à des étudiants autonomes, débrouillards, ayant un niveau minimal de lecture en anglais. Que faire des autres ? Et même pour des personnes débrouillardes, il y a le risque de perdre du temps sur des blocages qui se régleraient vite en recourant à un enseignant.

Voici pour la programmation. On voit d'autres évoquer ce type de pédagogie pour enseigner « l'algorithmique » à des étudiants sans prérequis. Or, au-delà d'un certain point en algorithmique (notamment quand on veut justifier le bon fonctionnement de certains algorithmes, ou encore borner le nombre d'opérations qu'ils effectuent), on est obligé de faire appel aux mathématiques. Ceci nécessite une certaine aisance : notations, concepts, comment on rédige une démonstration…

Il est vrai que de nombreux métiers de l'informatique n'exigent guère de connaissances d'algorithmique — une bonne partie de la programmation d'applications consiste à assembler des composants rédigés par d'autres et qui contiennent les éventuelles parties proprement algorithmiques. Quoique… à vouloir assembler des composants sans comprendre comment ils fonctionnent et notamment dans quelles circonstances ils sont efficaces ou inefficaces, on obtient parfois des systèmes qui ne supportent pas la montée en charge ! Bref, former à la programmation sans algorithmique, ou à l'algorithmique sans mathématiques, me semble former à des métiers d'exécutants qui auront besoin de personnels à la formation plus complète pour concevoir les parties plus délicates et dimensionner les systèmes.

Passons aux clichés sur l'enseignement universitaire. On voit des gens parler comme si à l'université l'informatique se faisait en cours magistraux, sans manipuler d'ordinateur ! Je ne connais aucun établissement français où cela soit le cas, quoiqu'en raison des restrictions budgétaires les TP se font maintenant en très grands groupes et que dans certains endroits on doit mettre 2 voire 3 étudiants par machine…

On entend également qu'à l'université on apprendrait des technologies dépassées. Ici, il convient de rappeler quelques faits relatifs aux choix pédagogiques en informatique « pratique » et notamment aux choix de langages de programmation utilisés en enseignement.

Certaines technologies sont pérennes. Par exemple, on enseigne les langages de programmation C et C++ parce que, bien que ceux-ci évoluent, ils existent depuis les années 1970 et 1980 respectivement et vont probablement continuer à être largement utilisés pendant des décennies. En revanche, certaines technologies sont lancées en grande pompe par un industriel, ne « prennent » pas et sont abandonnées (que l'on songe à Microsoft Silverlight, lancé en 2007, coulé en 2012). Dans les cursus, on va tenter d'enseigner des technologies pérennes et non la dernière mode du moment.

Par ailleurs, une partie du public étudiant n'a pas une vision très claire sur ce qui est ou non une technologie d'actualité. Je me rappelle cet étudiant qui me reprochait d'enseigner Java, selon lui un vieux truc, alors que « tout le monde fait du C++ » — Java était le langage à la mode, plus récent que C++. « Tout le monde utilise X » peut vouloir dire « l'entreprise où travaille mon frère utilise X ».

Derrière ces reproches faits à l'université, derrière la promotion sans réflexion ni recul de méthodes d'enseignement censément innovantes, qu'il y a-t-il ? Le dénigrement de l'enseignement public sert bien entendu la communication de l'enseignement privé (et ce n'est pas parce qu'une célèbre école privée est gratuite que d'autres ne sont pas à but lucratif). Il sert également les projets de ceux qui veulent démanteler le public au motif qu'il serait inefficace et dépassé.

Le fantasme de l'école sans enseignants, et pourtant « plus efficace », rejoint celle des MOOCs, ces cours en ligne déjà quelque peu passés de mode. L'accroissement de la productivité depuis la Révolution industrielle est passée par l'automatisation : là où il fallait de nombreux paysans, un seul suffit pour conduire une machine ; on a remplacé caissiers et guichetiers par des automates ; un seul chauffeur, bientôt aucun chauffeur, conduit un camion qui transporte bien plus que les charrettes d'antan. Pour l'enseignement, on en reste à payer une personne pour s'occuper d'un certain nombre d'étudiants. Il est donc tentant de chercher à automatiser cela.

Là encore, il y a beaucoup de naïveté. Que l'on puisse remplacer un cours magistral en amphithéâtre de 500 places par une vidéo, pourquoi pas — on ne peut pas dire qu'il y a beaucoup de rapport entre l'enseignant et son public dans une telle configuration, bien qu'il soit tout de même possible d'observer le regard des étudiants et d'en déduire s'ils suivent ou pas. Mais comment remplacer des travaux dirigés ou pratiques ? Là où il suffit de poser une question à l'enseignant et obtenir une réponse rapide, il faut lancer une question en ligne… Et si l'université doit payer des enseignants pour répondre à ces questions (avec tous les risques d'incompréhension inhérents à la communication distante), quelle économie est vraiment réalisée ? Enfin, quelle discipline de fer est supposée de la part des étudiants !

Il est possible que des solutions d'étude en grande autonomie soient efficaces en formation initiale, pour des publics dégoûtés par le fonctionnement scolaire habituel, ou en formation continue, pour des personnes déjà expérimentées et qui veulent avoir la liberté de leur emploi du temps. Il me semble en revanche parfaitement irréaliste de supposer qu'elles forment une solution miracle pour l'enseignement de masse.

vendredi, mars 10 2017

Guillaume Poupard à l'inauguration du Data Institute de Grenoble

J'étais cet après-midi au colloque d'inauguration du Data Institute de l'Université Grenoble Alpes, en présence de Mme Geneviève Fioraso, députée, et de mes collègues Lise Dumasy, présidente de l'Université Grenoble Alpes et de Patrick Lévy, président de la COMUE.

Guillaume Poupard, directeur général de l'Agence nationale pour la sécurité des systèmes d'information (ANSSI), a prononcé une allocution et répondu à des questions. Je vais ici tenter de donner un résumé de ses propos ; bien entendu, il est possible que je pèche par omission ou mauvaise compréhension. Guillaume Poupard a notamment tenu par moments à distinguer sa position personnelle de celle tenue à titre officiel par l'ANSSI, et je n'ai pas forcément noté toutes ses précautions oratoires. Toute erreur ou expression malheureuse devra donc être portée à mon compte.

« La sécurité informatique ne se limite pas à la technique. Souvent, d'ailleurs, la technique est connue mais ce qui pèche c'est sa mise en œuvre.

Il y a déjà eu en France de terribles intrusions dans des systèmes de traitement d'informations. Les conditions de sécurité sont souvent abominables. Parfois, les attaquants étaient rentrés dans les systèmes depuis des années avant d'être détectés… avec des conséquences dramatiques.

Encore ne s'agit-il là que de vols de données. Il y a pire : les attaques sur les systèmes critiques — industriels, bancaires, etc. Ceux qui sont capables de les attaquer avec succès attendent l'instant opportun où ils pourront créer des perturbations répondant à leurs buts.

En conséquence, la cybersécurité doit être une préoccupation de gouvernance au plus haut niveau et non pas seulement au niveau des experts en sécurité des systèmes d'information. Sur tous ces sujets, l'ANSSI travaille en bonne intelligence avec la CNIL (Commission nationale de l'informatique et des libertés).

Dans une approche traditionnelle de la sécurité, on considère la question de la sécurité des systèmes de traitement d'informations séparément de la question des traitements qu'ils opèrent et des données qu'ils entreposent : on sépare le contenant du contenu. Une telle approche n'est plus possible lorsque l'on considère le cloud, avec externalisation du traitement de données.

Dans quels cas est-il ou non raisonnable d'utiliser le cloud ? L'ANSSI a un processus de qualification de prestataires. Le recours au cloud peut d'ailleurs améliorer la sécurité, puisque les prestataires spécialisés ont des moyens techniques qui vont au-delà de ce que peuvent faire en la matière la plupart des petites et moyennes entreprises, où souvent les aspects informatiques sont gérés par des personnels dont ce n'est pas le métier dans le temps qu'il leur reste.

L'Internet des objets (IoT, Internet of Things) pose des problèmes nouveaux, notamment pour les objets connectés médicaux. Par exemple, comment appréhender la sécurité d'un pace-maker ? Pour des applications moins critiques, la sécurité est hélas souvent une préoccupation très secondaire des fabricants, qui voient en elle des coûts et des délais supplémentaires — l'objectif est le time-to-market, la présentation à Las Vegas au consumer electronics show.

Les géants du Web, les GAFA (Google Apple Facebook Amazon) échappent de plus en plus aux états — on le voit déjà fiscalement. On parle beaucoup du Big Data, buzzword actuel qui désigne ce que l'on appelait naguère fouille de données ou data mining — et aussi de deep learning, approche actuellement à la mode pour mener à bien le vieux programme de l'intelligence artificielle. Que penser d'un monde où 3 ou 4 « intelligences artificielles » collecteraient les données de toute la planète ?

Des compagnies d'assurance peuvent vouloir proposer des polices moins chères aux personnes en bonne santé qu'à celles en mauvaise santé. On s'émeut de la confidentialité d'informations relatives à des problèmes de santé, mais qui songe à dissimuler sa bonne santé… qui peut s'inférer par recoupement de diverses données.

Le règlement européen sur la protection des données est une avancée. La notion de donnée personnelle n'a longtemps pas été claire ; mais maintenant les juristes considèrent que l'adresse IP en est une. Cela n'est pas sans poser des problèmes pour l'analyse forensique de sécurité : celle-ci s'appuie sur des journaux de connexions comprenant de telles adresses… Et pour des raisons de sécurité on peut vouloir conserver de telles informations 10 ans après une attaque !

Le statut de la donnée est chose complexe. Des données sensibles peuvent, après anonymisation et autres traitements, être utilisées pour produire des données publiques. Par exemple, pour la production de prévisions météorologiques publiques on utilise des données confidentielles défense de certains senseurs.

Dans certains traités commerciaux internationaux en cours de négociation (TAFTA etc.), on évoque la libre transmission des données (free flow of data). Les législations ou réglementations nationales interdisant ou restreignant la transmission de certaines données vers d'autres pays seraient alors considérées comme faussant la concurrence. À ce sujet, il ne faut pas confondre, comme on le fait parfois, la libre transmission des informations, une forme de liberté de parole, avec la libre transmission des données. Le 6 et 7 avril prochain on discutera de ces sujet à l'UNESCO.

On parle parfois de cyberguerre. Dans la guerre à l'ancienne, on se battait pour des territoires. Même si de tels conflits subsistent, on se bat de nos jours plutôt pour des ressources naturelles. Demain, se battra-t-on pour des données ? Le Manuel de Talinn est un guide rédigé par un groupe d’experts mandatés par l’OTAN, qui propose une transposition du droit international aux cyberconflits.

Il ne faut pas opposer sécurité et Open Data, l'accès ouvert aux données notamment publiques. Le réflexe pourrait être de tout garder secret ; il vaut mieux procéder à une analyse de risque. Sur ces sujets, l'ANSSI discute beaucoup avec Henri Verdier, administrateur général des données de l'État.

Sur tous ces sujets, l'ANSSI travaille. La moitié des travaux de ses chercheurs sont publics, l'autre moitié confidentielle. Elle collabore actuellement avec le monde universitaire et de la recherche surtout dans les domaines techniques ; il s'agit d'étendre ces collaborations à d'autres domaines.

Abordons maintenant la question des données relatives aux attaques informatiques. Bien entendu, ces données sont précieuses pour les chercheurs et les développeurs de moyens de sécurisation et il est souhaitable qu'elles soient disponibles. On ne peut pourtant pas aveuglément disséminer les informations relatives aux entreprises attaquées. Il ne faut pas perdre de vue qu'il s'agit là de victimes, qui attendent que leurs problèmes soient traités confidentiellement afin de ne pas souffrir de la publicité négative. Une solution est d'extraire et de diffuser des marqueurs et signatures des attaques ; mais ceci demande un travail important.

[Note personnelle : il existe le même problème en matière de vérification automatique de sûreté de fonctionnement des logiciels. Les industriels attendent des solutions qui fonctionnent bien sur leurs cas d'espèce, mais refusent de communiquer ceux-ci aux chercheurs, qui ne peuvent donc pas adapter leurs méthodes et leurs outils en fonction. In fine, tout le monde est mécontent : les industriels trouvent que les outils sont inadaptés à leurs besoins, les chercheurs prennent des exemples artificiels.]

On évoque les pratiques des services douaniers de certains pays (États-Unis), qui ordonnent aux voyageurs de donner accès à leur ordinateur ou téléphone, de communiquer des mots de passe, etc., sous peine d'être renvoyés par le prochain vol. Une suggestion, à titre personnel, serait d'appliquer les mêmes méthodes par réciprocité aux voyageurs de ces pays entrant en France et en Europe. On a vu par le passé l'efficacité de cette mesure, par exemple quand le Brésil a imposé la prise des empreintes d'identité des voyageurs américains.

La situation de l'ANSSI comme service du premier ministre (et non comme autorité indépendante comme la CNIL) est adaptée. En cas de crise majeure, il faut être en mesure de prévenir rapidement président et premier ministre.

D'autres pays ont fait le choix de regrouper au sein du même service les activités d'espionnage et celles de protection contre les intrusions (les États-Unis au sein de la NSA, le Royaume-Uni au sein du GCHQ). Ce n'est pas le choix de la France ; il s'agit de deux métiers distincts, même si des contacts peuvent et doivent exister. L'ANSSI est donc parfois informée d'intrusions par des services secrets étrangers.

La suppression de la possibilité de voter par voie électronique aux élections législatives pour les Français de l'étranger a suscité la polémique. Malheureusement, malgré des travaux de sécurisation y compris ces derniers mois, la plate-forme utilisée n'était pas robuste et au niveau des menaces.

En matière de vote électronique, il existe des études théoriques très avancées. Le problème là encore est plus dans la mise en œuvre.

Il faut également rappeler l'actualité de ces derniers mois. Le comité national du Parti démocratique américain (DNC) a fait l'objet d'une attaque informatique qui a donné lieu à des divulgations d'informations — il y a d'ailleurs certaines similarités avec l'attaque sur TV5 Monde. Cela a-t-il déstabilisé le processus démocratique au point d'en changer le résultat ? Nous ne le saurons jamais.

À ce sujet, notons qu'en cas de révélations massives de courriers électroniques et autres données, il est aisé de rajouter au milieu d'informations véritables des fausses informations. Des campagnes de désinformation peuvent ainsi être menées.

Outre ces aspects, les élections posent bien sûr des problèmes classiques de sécurité informatique en ce qui concerne les systèmes de collation des résultats. »

Mme Fioraso a demandé ce que l'on entend par « darknet » et s'il est possible pour une agence comme l'ANSSI d'y recruter des experts.

« Le Dark Net est une expression de journaliste. Il s'agit, en bref, de services Internet non indexés par les moteurs de recherche et mis en place par des gens qui veulent y traiter à l'abri des autorités. On y propose un grand nombre de produits et de services illicites. Le Dark Net donne lieu à bon nombre de fantasmes, mais il ne s'agit pas que de cela.

L'ANSSI recrute des hackers au sens originel du terme, c'est-à-dire des personnes qui aiment la technique, des « bidouilleurs » mais sans connotation péjorative. Elle ne recrute pas de pirates. Ses personnels sont habilités au confidentiel défense, elle ne peut se permettre de recruter des individus peu fiables ou délinquants.

On nous demande si des terroristes pourraient mener des cyberattaques.

Il existe actuellement des groupes mafieux aux bénéfices importants — on parle de milliards — tirés d'attaques informatiques, par exemple du blocage et chiffrement des données dans des ordinateurs avec exigence de rançon pour leur déchiffrement.

Ces groupes mafieux, opérant pour leur profit, peuvent fort bien vendre leurs services à des pays ou groupes hostiles qui n'auraient pas sinon les compétences et capacités de mener eux-mêmes des attaques. Il n'y a d'ailleurs même pas besoin que commanditaires et commandités se rencontrent physiquement. Il y a déjà eu des attaques inhabituelles qui pourraient relever de ce genre d'arrangements.

À plus petite échelle, on trouve sur le Dark Net des prestataires d'attaques à la demande. On peut ainsi acheter une certaine durée d'attaque en déni de service, par exemple contre une entreprise concurrente. »

[Note : Une attaque en déni de service est une attaque informatique saturant un système informatique pour l'empêcher de rendre le service attendu. Par exemple, on pourra saturer un site Web de requêtes afin de le rendre inaccessible aux utilisateurs.]

Une question sur la transparence des fonds publics a été comprise par Mme Fioraso comme une question sur la transparence des frais des élus. Elle a indiqué être en faveur du remplacement de l'indemnité représentative de frais de mandats (IRFM) par un remboursement sur note de frais, comme cela se fait dans les entreprises ou administrations. D'après elle, la mise en place de la Haute autorité pour la transparence de la vie publique (HATVP) a mis un terme aux abus les plus criants. Initialement, les données en étaient publiques sans démarche d'accès, mais cela posait des problèmes de vie privée : par exemple des notaires et avocats s'en servaient dans des procédures de divorce ou d'héritage.

Mme Fioraso a également relevé le danger qu'il y a à ce que des universitaires se posent en opposition aux « élites », car l'opposition aux « élites », le poujadisme, les touche également.

mardi, mars 7 2017

Laissons la sécurité informatique à ceux qui s'y connaissent

Ce matin, France Info expliquait que le Gouvernement supprimait le vote électronique des Français de l'étranger « tout ça pour » des risques d'attaques. Mon sang n'a fait qu'un tour.

La sécurité informatique, c'est compliqué. En position de défenseur, on doit veiller à tous les points d'attaque — il ne sert à rien d'avoir tout sécurisé si on a laissé un maillon faible. Une fois que l'on connaît un peu le sujet — j'ai la fatuité de croire que c'est mon cas — on se rend surtout compte qu'on ne sait pas grand chose et que la tâche est immense.

Autant dire que sur ce genre de sujets, je fais considérablement plus confiance à Guillaume Poupard, directeur de l'Agence nationale pour la sécurité des systèmes d'information (ANSSI) — par ailleurs ingénieur de l'Armement et docteur en cryptographie — qu'à des politiciens ou journalistes. Si l'ANSSI, qui a effectivement expertisé les systèmes informatiques concernés, rend un avis négatif, c'est sans doute qu'elle a de bonne raisons, comme il l'explique.

Je trouve assez déplorable que des journalistes, en adoptant une terminologie non neutre (« tout ça pour »), minimisent des menaces dans un domaine où ils n'ont aucune compétence, reprenant les arguments de certains politiciens.

Ce paragraphe du Monde me semble donner un bon résumé des réserves quant au vote électronique :

A titre personnel, M. Poupard s’est toujours montré très prudent sur le vote électronique et dit préférer le bulletin papier, meilleure garantie contre le piratage. Les critiques contre les systèmes de vote par Internet ne sont pas nouvelles et ont été largement étudiées – la commission des lois du Sénat rappelait ainsi, dans un document de synthèse publié en 2014, que la pratique est intrinsèquement risquée (pdf), tant sur le plan de l’identification de l’électeur que sur les recomptages a posteriori. Son usage pour les Français de l’étranger avait cependant le caractère d’une « nécessité pratique », permettant « d’assurer un égal accès des électeurs au vote », notaient les sénateurs.

Les arguments de certains politiciens peuvent faire sourire : « Cela s’est passé sans risque et sans problème en 2012 » dit Pouria Amirshahi. Faire d'un unique cas une règle, ce n'est guère sérieux, surtout qu'il est très possible qu'entre temps la menace ait changé (on parle d'ingérences étrangères dans les élections américaines). Faut-il rappeler qu'Amazon S3 a parfaitement fonctionné des années jusqu'à une panne massive, entraînant celle de très nombreux sites Internet ?

Je n'ose penser au désordre, accusations, expertises, contre-expertises, en cas de panne ou suspicions de piratage du vote électronique. Veut-on d'un pareil risque à notre époque de suspicion généralisée et de fausses nouvelles ?

lundi, février 27 2017

Le droit n'est pas logique

La lecture de discussions de réseaux sociaux me donne l'occasion d'illustrer la différence entre logique mathématique et langue naturelle. Ce qui suit paraîtra sans doute évident à bon nombre de lecteurs, mais visiblement ce n'est pas évident pour tout le monde !

On me pointe cette tribune d'une professeure de droit, et notamment cet extrait :

« La loi Taubira s’est donc écartée de cette vérité naturelle pour donner du mariage une nouvelle définition, coupée de la réalité anatomique et biologique, et de surcroît logiquement absurde puisqu’elle aboutit à définir une notion par une proposition contradictoire. Le mariage serait désormais l’union de deux personnes de sexe opposé « ou » de même sexe, c’est-à-dire qu’il désignerait à la fois une chose et son contraire absolu. »

Ainsi, d'après cette professeure, il serait logiquement absurde, c'est-à-dire logiquement contradictoire, d'expliquer que le mariage est l'union de deux personnes de même sexe ou de sexe opposé, car « de même sexe » et « de sexe opposé » sont deux propriétés opposées. Je ne comprends guère cette affirmation.

Si l'on admet que le sexe est une propriété (en mathématiques, une fonction) de l'individu, alors deux personnes sont soit de même sexe, soit de sexe différent. Il s'agit de l'application d'un principe logique général, dit du tiers-exclu, qui dit que quelle que soit la propriété étudiée (ici, que les sexes de deux individus soient égaux), alors elle est vraie ou fausse.

(Ce principe du tiers-exclu n'est pas valide dans les logiques dites intuitionnistes, mais celles-ci n'intéressent que les spécialistes. Quand on parle de logique mathématique sans plus de précision, o0n se place dans une logique classique, c'est-à-dire avec tiers-exclu.)

Ainsi, on n'a pas affaire à une contradiction (une propriété toujours fausse), mais à son opposé, une tautologie (une propriété toujours vraie). (En logique mathématique, le terme « tautologie » n'a pas la nuance péjorative qu'il peut avoir dans d'autres contextes. En particulier, une tautologie n'est pas forcément évidente.)

Bref, l'énoncé cité n'est pas plus folichon qu'indiquer que toute carte d'identité française comporte une date de naissance soit égale au premier janvier 1970, soit différente — énoncé équivalent à indiquer que toute carte d'identité comporte la mention d'une date de naissance. On pourrait, en termes strictement logiques, le retirer de la loi. Alors, pourquoi l'indiquer explicitement ?

C'est justement que la langue naturelle (le français, etc.), de même que le droit, n'exprime pas des propriétés strictement logiques. Notamment, l'interprétation d'une phrase en langue naturelle dépend habituellement de présupposés ; et un présupposé assez courant est que le mariage concerne un homme et une femme. Une façon d'indiquer que ce présupposé ne s'applique pas est de faire figurer explicitement une tautologie généralisant voire contredisant le présupposé. (Je suis sûr qu'un linguiste expliquerait cela bien mieux que moi, je ne suis pas linguiste, etc.)

Quelqu'un qui s'exprimerait purement logiquement dans la vie courante serait proprement insupportable, puisque cette personne devrait sans cesse faire le rappel d'une quantité de présupposés partagés. C'est pourquoi on n'explicite habituellement que ce qui risquerait de différer des habitudes de certains — et, l'existence de mariages entre individus de même sexe différant assurément des habitudes, on est bien ici dans ce cas.

La logique mathématique pure a quelques côtés déroutants. Par exemple, si on prend une hypothèse contradictoire, on a le droit de tout en déduire, même des propriétés elles mêmes absurdes. On m'a ainsi raconté la mésaventure d'une équipe chargée de vérifier le fonctionnement d'un dispositif informatique : elle avait prouvé que si les entrées de ce dispositif vérifiaient certaines hypothèses, alors sa sortie vérifiait une certaine propriété désirée… Sauf que les hypothèses sur les entrées figurant dans la documentation étaient contradictoires ! Ils s'étaient donc retrouvés à démontrer une tautologie « si on se place dans un cas impossible, alors les sorties conviennent ». Une interprétation plus pragmatique, et non purement logique, serait que si l'on demande de démontrer que A implique B, c'est que le cas représenté par A est intéressant, ni absurde ni tautologique, et que donc il convient de s'inquiéter si ce n'est pas le cas.

Bref, il est en général malvenu d'appliquer directement la logique mathématique au langage naturel. Si en plus on le fait en confondant tautologie et contradiction...

dimanche, février 26 2017

La vulgarisation doit citer les études scientifiques auxquelles elle se réfère

La vulgarisation scientifique ou technique doit-elle mentionner ses sources, articles ou rapports de recherche ? Pour certains, dont Cécile Michaut, non, si elle s'adresse au grand public : seule une faible fraction de celui-ci pourrait tirer partie de la lecture de ces articles, et les autres pourraient se sentir exclus ou intimidés. Pour d'autres, il s'agit non seulement de permettre à la minorité ayant les compétences d'approfondir le sujet, mais surtout d'une condition indispensable d'honnêteté intellectuelle.

Il m'arrive que l'on me pose des questions au sujet d'informations publiées dans la presse dans des domaines où l'on pense que j'ai quelque compétence (sécurité informatique…). Très souvent, je ne peux rien répondre sinon des généralités, car je n'arrive pas à attacher un sens précis à l'article de presse. J'apprécierais alors d'avoir la source originale à disposition.

Je voudrais toutefois aller plus loin que ce simple constat, et me livrer à une petite digression épistémologique (ce pour quoi je ne suis pas qualifié, n'étant pas philosophe !). Karl Popper proposait comme critère pour déterminer si une affirmation est scientifique qu'elle soit réfutable, c'est-à-dire qu'elle soit formulée d'une façon qu'il soit possible d'en discuter la véracité et le cas échéant de la réfuter. L'affirmation « Pénélope Fillon avait un emploi fictif » est réfutable, en fournissant des preuves (témoignages, documents…) d'un travail effectif — il faut bien entendu différencier réfutable de réfutée, c'est-à-dire que l'on apporte effectivement ces preuves. À l'inverse, l'affirmation « il existe des dieux qui vivent dans un univers parallèle au nôtre, mais qui n'interviennent pas dans le nôtre » n'est pas réfutable, puisqu'il est impossible de concevoir une possible preuve qu'elle est fausse.

Si un texte est écrit de façon si vague que l'on ne puisse savoir ce qu'il veut dire, alors il est irréfutable, car il est impossible de le prendre en défaut. Si un article de vulgarisation me dit qu'une étude publiée par tels auteurs sous tel titre aboutit à telle conclusion, cette affirmation est réfutable : on peut se rapporter à l'étude et avoir un débat si celle-ci aboutit ou non à la conclusion prétendue. Si en revanche on me dit qu'une « étude américaine » aboutit à une certaine conclusion, cette affirmation n'est pas réfutable — je ne peux pas consulter l'entièreté des études publiées sous une forme quelconque par des américains et vérifier si l'une d'entre elles n'aurait pas une conclusion de ce genre.

Celui qui s'exprime de façon vague ne prend guère de risque, de même d'ailleurs que celui qui, a posteriori, invoque la nécessité d'une nécessaire interprétation métaphorique de ses propos. Il ne peut jamais avoir tort !

Revenons à la question de la vulgarisation scientifique. Je fais plus confiance à un article qui cite précisément l'étude sur laquelle il s'appuie qu'à un article qui ne le fait pas précisément parce qu'il s'expose à la critique, à la réfutation, par des experts. L'auteur s'estime suffisamment assuré de ses propos pour cela. À l'inverse, celui qui parle sans source et dans le flou veut peut être dissimuler ses approximations ou extrapolations.

jeudi, février 2 2017

Sur le poste de professeur de Benoît Hamon

Louis Aliot a récemment évoqué le fait que Benoît Hamon avait été nommé professeur d'université avec une simple licence d'histoire. Diverses personnes, visiblement sympathisantes du Front National ou du moins de la droite, ont embrayé. Je voudrais ici rectifier certaines erreurs factuelles et confusions dans leur raisonnement.

Il y a dans les universités françaises et établissements assimilés différentes catégories de professeurs enseignants : les enseignants-chercheurs, les enseignants-chercheurs associés, les attachés temporaires d'enseignement et de recherche, les enseignants du secondaire, les vacataires, et les doctorants avec mission d'enseignement (je passe sur la situation particulière des hospitalo-universitaires). Vu des étudiants, il s'agit tous de « professeurs », mais il existe de grandes différences de statut entre eux ! (Pour les professionnels du domaine, un « professeur » c'est normalement seulement un « professeur des universités »… sinon on dit « enseignant »!)

Les enseignants-chercheurs se composent des maîtres de conférences et des professeurs des universités. Il s'agit de fonctionnaires recrutés (sauf exception) après un doctorat (et une habilitation à diriger les recherches, pour les professeurs), par un concours en deux étapes, l'une de filtre national, l'autre locale, où l'on examine la qualité scientifique des résultats du candidat, son projet de recherche, ses compétences en enseignement… (Les cas des disciplines médicales, juridiques et économiques est différent, mais ne compliquons pas.) Il est tout à fait exact, du moins au vu des informations que j'ai sur lui, que Benoît Hamon ne vérifie pas du tout ces conditions.

Les enseignants-chercheurs associés se composent des maîtres de conférences associés et des professeurs des universités associés. Il s'agit de personnels contractuels, à temps complet ou partiel, recrutés principalement pour leur expérience professionnelle : par exemple, on pourra recruter un ingénieur travaillant dans l'industrie pour enseigner les domaines sur lesquels il a compétence. Même si dans certains cas les enseignants-chercheurs associés ont un doctorat, ce n'est pas une condition nécessaire. C'est sur ce type de poste qu'a été recruté Benoît Hamon, apparemment pour enseigner sur les organisations internationales, sans doute au motif que ses mandats politiques lui ont donné cette compétence — ignorant tout de ce en quoi consiste l'enseignement de science politique je m'abstiendrai d'en juger.

Il ne faut pas confondre ce type de poste avec ceux des vacataires : ceux-ci, qui doivent exercer une activité principale distincte, sont payés à l'heure de cours ou de travaux dirigés. Leur recrutement est considérablement moins solennel !

Pour conclure, je voudrais rappeler que la procédure de recrutement des enseignants-chercheurs fonctionnaires est extrêmement codifiée. Il faut être ignorant ou de mauvaise foi pour prétendre que l'on puisse recruter professeur des universités quelqu'un n'ayant pas du tout les diplômes : une telle personne n'est tout simplement pas admise à concourir ! De telles allégations, de la part de responsables politiques, sont d'autant plus insultantes pour l'ensemble du corps universitaire qu'elles le mettent à l'égal de ces lieux de pouvoirs où l'on distribue des emplois fictifs ou de pure complaisance.

Rappelons également que les professeurs des universités et professeurs associés sont nommés, à la fin de la longue procédure de sélection, par décret du Président de la République : imagine-t-on Nicolas Sarkozy nommant Benoît Hamon par pure complaisance ?

PS: J'ai un peu simplifié, tant les statuts et procédures de recrutement sont divers, avec des exceptions.

A very concrete appraisal of political reality with respect to scientific conferences

My esteemed colleague Moshe Vardi and myself had a little conversation over Twitter regarding the wisdom of planning scientific conferences in the United States, owing to the unpredictable decisions of the US government regarding visas and visitors under the Trump administration. Moshe, who apart from being a very distinguished scientist, is also editor-in-chief of Communications of the ACM, the flagship magazine of the Association for Computing Machinery, answered more fully on a blog posting.

Lire la suite...

lundi, janvier 30 2017

Scientific meetings in the United States under Trump's presidency

I have sent the following letter (with minor alterations) to the head of ACM SIGPLAN (Association for Computer Machinery, special interest group on programming languages), and the steering committees of CAV (International conference on Computer-Aided Verification) and VMCAI (International conference on Verification, Model-Checking and Abstract Interpretation):

Recent developments in US politics seem to indicate that US visa policies in the forthcoming years are likely to be haphazard, with abrupt changes, people with valid visas being denied entry, researchers from certain citizenships or religions being denied entry, perhaps the Visa waiver program being scrapped.

In these circumstances, I wonder about the wisdom of holding scientific conferences in the United States.

Do you have an official position on such matters? If not,shouldn't this be discussed?

Michael Hicks, head of SIGPLAN, informed me that ACM supported the Computer Research Association's statement on President Trump's executive order. The ACM has issued its own statement. The CAV steering committee has informed me that CAV 2018 (as well as 2017) is to take place in Europe, thus 2019 and 2020 are to take place in North America but that logistical and political factors will be taken into account when choosing the location.

In the meantime, several colleagues have expressed concerns about possible gratuitous harassment of students etc. that are going to conferences in the United States.

I remind prospective students or postgraduate researchers that face or may face difficulties coming to the United States that our excellent research facilities in France can welcome you.

PS ACM SIGPLAN's executive committee has issued an official statement  ending with:

While we hope that the EO is rescinded (and will work toward this outcome), we are developing contingency plans for organizing future SIGPLAN events so as to maximize inclusiveness of the worldwide scientific community. We welcome your input.

mercredi, décembre 14 2016

De l'introduction des concepts mathématiques

On m'a récemment demandé ce que j'entendais par la création de concepts mathématiques comme généralisations d'intuitions ou de besoins. Je vais tenter ici un exposé grand public, absolument pas détaillé côté mathématiques, et sans non plus tenter de reconstituer le déroulement historique de l'histoire des idées mathématiques.

Les entiers

Prenons les nombres 0, 1, 2…, que l'on appelle les entiers naturels. Ceux-ci, du moins les plus petits d'entre eux, nous sont familiers et intuitifs car ils permettent de compter les objets. Nous avons de même une notion d'addition assez naturelle : quand nous avons 3 carottes et par ailleurs 5 carottes, nous avons au total 3+5 carottes.

La notion de multiplication vient elle aussi assez naturellement. Nous avons une tablette de chocolat de 8 rangées de 5 carrés, nous avons 8×5 carrés. Nous pourrions aussi bien compter en 5 colonnes de 8 carrés, nous aurions 5×8 carrés. Cela suggère que l'ordre (8×5 ou 5×8) n'importe pas, que l'on obtient le même résultat ; en termes savants, on dit que la multiplication est commutative. Comme cela fonctionne pour n'importe quelles valeurs et non simplement 5 et 8, on dit que pour tout x et y, x×y=y×x.

J'entends parfois des gens dire qu'ils comprenaient les mathématiques jusqu'au moment où il y a eu des x, mais pour le moment il ne faut pas s'alarmer : j'utilise ces notations parce qu'elles sont beaucoup plus commodes et lisibles que des phrases du genre « si je prends le premier et que je le place à la place du deuxième et que je prends le deuxième et que je le place à la place du premier, j'obtiens un nombre identique », comme on utilisait dans les textes savants avant l'introduction des notations par lettres.

Si nous avons une rangée de 8 carrés de chocolat, nous avons 8 carrés. Quand on multiplie par 1, on ne change pas le nombre… autrement dit, pour tout x, x×1 = x.

Si nous avons 4 tonnes d'acier, nous en avons 4×1000 kilogrammes=4000 ; si nous en avons par ailleurs 5 tonnes, nous en avons 5×1000=5000 kilogrammes ; donc au total nous en avons 9000 kilogrammes. Nous aurions pu aussi bien nous dire que si nous avons 4 tonnes et 5 tonnes, nous en avons 4+5=9 tonnes, donc si nous convertissons en kilogrammes, nous en avons 9×1000=9000 ; nous retombons sur le même nombre (ce qui est assez rassurant).

En mathématiques, les parenthèses servent à grouper ce qui va ensemble, afin d'éviter les ambiguïtés de lecture. Pour dire que l'on va additionner 4 et 5, et ensuite multiplier le tout par 1000, on écrit (4+5)×1000. Là, on a ainsi (4+5)×1000=(4×1000)+(5×1000).

Là encore, il n'y a rien de particulier au nombre 1000. Si au lieu de tonnes et de kilogrammes nous prenions des heures et des minutes, nous aurions le constat banal que si nous passons 4 heures, soit 4×60=240 minutes, puis 5 heures, soit 5×60=300 minutes, nous passons au total 9 heures soit 540 minutes, et que (4+5)×60=(4×60)+(5×60).

On peut généraliser à tout nombre : (4+5)×z=4×z+5×z. Mais là encore, pourquoi 4 et 5 en particulier ? Pour tous entiers naturels x, y, z, (x+yz=(x×z)+(y×z). En termes savants, on dit que la multiplication distribue sur l'addition.

Bref, il y a quelques propriétés de l'addition et de la multiplication qui nous paraissent « naturelles », représentant l'intuition que nous avons de ces opérations. Ce qui est intéressant, c'est qu'une fois que nous avons décidé d'avoir ces propriétés, tout le reste s'ensuit. On a parfois l'impression que les mathématiques sont des suites d'opérations sans sens, plus ou moins arbitraires, à apprendre par cœur. Mais là le seul arbitraire que l'on ait fixé, c'est d'avoir deux opérations, addition et multiplication, satisfaisant les propriétés que l'on désire d'elles pour coller à notre intuition.

Il est possible que cette confusion provienne de la confusion conceptuelle entre les nombres et leur représentation décimale, c'est-à-dire leur écriture usuelle : ainsi, le nombre onze est écrit 11, le nombre cent est écrit 100, etc. On parle de représentation décimale, ou en base dix, car quand l'addition sur les unités atteint dix, on repart à zéro et on propage une retenue. Il y a là un certain arbitraire — pourquoi dix et pas cinq, treize ou vingt? Ce trait qui relève de la culture — certaines civilisations ont d'ailleurs compté par vingt, et ce trait subsiste encore dans certaines langues européennes — que l'on songe à quatre-vingts, 4×20, en français de France. Le décompte de soixante secondes dans une minute, de soixante secondes dans une heure, est un reste culturel de système sexagésimal (base soixante). Le choix de dix provient probablement du fait que nous avons dix doigts (utile pour compter sur les doigts)...

Il peut sembler évident qu'une heure et soixante minutes soient deux écritures pour la même durée, de même que XX et 20 sont deux écritures du même nombre vingt, l'une en chiffre romains, l'autre en chiffres dit « arabes » et en base dix, ou encore que vingt et twenty décrivent le même nombre en français et en anglais. Pourtant, on décrit souvent comme quelque chose d'extraordinaire, voire d'effrayant, que les ordinateurs comptent en binaire, c'est-à-dire en base deux, et on prétend parfois en tirer des conséquences philosophiques ! Il n'y a pourtant là rien de fondamental : de même que le choix de dix est probablement lié à une contingence biologique, à savoir nos dix doigts, le choix de deux chiffres binaires (0 et 1) est motivé par une contingence technique, à savoir que distinguer deux niveaux électriques ou lumineux (ouvert / fermé, etc.) est bien plus aisé que d'en distinguer plus.

Une fois qu'on a fixé une représentation, on peut décrire des méthodes permettant de calculer effectivement dessus — autrement dit, des algorithmes. Là encore, il est important de distinguer la définition du résultat d'une opération de la méthode pour obtenir celui-ci. L'écriture décimale du résultat de l'addition ou de la multiplication de deux nombres écrits en décimal est définie indépendamment du procédé effectif de calcul pour l'obtenir — en mathématique, il est d'ailleurs possible de définirdes objets alors qu'il n'existe aucun procédé pour les calculer !

L'algorithme appris à l'école primaire (enfin, de mon temps ; j'ignore ce qu'il en est actuellement) pour calculer la multiplication de deux entiers n'est qu'un algorithme parmi d'autres qui remplit cette fonction, certes particulièrement simple. Il en existe d'autres, dont certains ont notamment comme avantage de nécessiter moins d'opérations quand on opère sur de grands nombres, comme cela est courant en cryptographie (la science du chiffrement des données). La conception d'algorithmes, leur analyse (combien d'opérations et de cases mémoire nécessitent-ils, etc.) est un champ scientifique nommé algorithmique, lui-même divisé suivant les objets auxquels s'appliquent les algorithmes — bien entendu, on ne se limite pas à additionner et multiplier des entiers ! On peut remplir des rayonnages entiers de bibliothèque universitaire avec des ouvrages sur ces sujets...

Les « fractions »

Mais revenons-en à nos nombres. La conversion d'une heure en minutes est particulièrement aisée : il suffit de multiplier par un nombre entier (le nombre d'heures dans une minutes). Prenons maintenant un problème plus compliqué : le système monétaire britannique comprenait jadis une unité de compte traditionnelle, la guinée, valant 21 shillings, en sus de l'unité officielle, la livre, valant 20 shillings. Comment convertir en livres une somme en guinées ? Il faut multiplier par 21 puis diviser par 20... On va donc parler de multiplier par vingt-et-un vingtièmes, 21/20, autrement dit par une fraction (quand on est savant, on parle d'un rationnel).

Nous avons l'habitude de parler de moitiés, de tiers, de quarts, de cinquièmes, de sixièmes... ne serait-ce que pour couper des gâteaux. Cela ne défrise pas grand monde que de dire que si on ajoute deux cinquièmes de gâteau, deux autres cinquièmes et un cinquième, alors on obtient cinq cinquièmes soit un gâteau entier. Autrement dit, 2×(1/5)+2×(1/5)+1×(1/5)=(2+2+1)×(1/5). On retrouve la règle de distributivité déjà évoquée sur les entiers.

De fait, quand nous passons aux « fractions », nous nous attendons à certaines propriétés identiques à celles des entiers : commutativité, distributivité, etc. En revanche, certaines propriétés disparaissent : par exemple, il n'y a pas d'entier strictement plus grand que deux et strictement plus petit que trois (si on compte en gâteaux entiers, on peut en avoir deux, on peut en avoir trois, mais pas de cas intermédiaire), mais avec des fractions, c'est possible : on peut avoir deux gâteaux et demi.

Là encore, une fois que nous avons posé que nous voulons une notion qui généralise les entiers naturels, qui conserve certaines de leur propriétés, qui correspond à notre intuition du partage du gâteau, alors il n'y a plus d'arbitraire possible. Les règles « mécaniques » de calcul apprises à l'école (mettre les fractions au même dénominateur, etc.) sont juste là pour s'assurer qu'on tombe sur le bon résultat. Mais le critère de ce qui est ou non un bon résultat n'a d'arbitraire que le choix que l'on a fait d'avoir une généralisation des entiers qui vérifie quelques propriétés assez intuitives et naturelles. Autrement dit, c'est ainsi parce que ça ne peut pas être autrement.

Ainsi, nous sommes passés d'une notion élémentaire (les entiers naturels) à une notion plus générale (les rationnels) parce que nous avons éprouvé la nécessité d'étendre le concept utilisé pour capturer une notion intuitive (les parts de gâteau). Voyons maintenant un autre exemple.

Les réels

Si je prends un carré de côté 1m, sa surface est de 1m². Si je prends 4 carrés identiques et que je les dispose pour former un carré de 2m de côté, j'obtiens un carré de 4m² ; bref la surface du carré c'est la longueur du côté multipliée par elle-même, autrement dit élevée au carré. En repliant les coins, on se rend compte que la surface du grand carré correspond à deux fois la surface d'un carré dont le côté est la diagonale du carré de 1m de côté ; donc ce carré fait 2 m² de surface. On se dit donc que si l'on élève au carré la longueur de cette diagonale, on doit obtenir 2.

Nous sommes alors devant une difficulté déjà connue des grecs antiques : il n'existe pas de rationnel (de « fraction ») qui, élevé au carré, donne 2. On peut d'ailleurs le démontrer — on suppose que c'est une fraction, et, par un raisonnement simple mais trop technique pour ce texte, on about it à une contradiction. Ceci nous suggère qu'en nous limitant aux rationnels, nous ne pouvons pas parler de certaines quantités géométriques intéressantes, de même qu'en nous limitant aux entiers nous ne pouvions pas bien parler de choses aussi naturelles que des parts de gâteaux.

Il a donc fallu concevoir des extensions de la notion de rationnel, qui préservent la plupart des propriétés que nous avions sur les rationnels (il y a une addition, une multiplication qui distribue sur l'addition, etc.) mais permettent de parler, par exemple, de la longueur des diagonales de rectangles. Citons parmi celles-ci les nombres réels (ou simplement, les réels) et les réels algébriques. Leur description nous entraînerait trop loin. Dans leur vision « grand public », on les connaît parfois sous le nom de « nombres à virgule », mais cette terminologie est problématique car elle met l'accent sur une représentation particulière (la décimale) et induit des confusions — par exemple, les gens déduisent, incorrectement, du fait qu'un nombre ait un nombre infini de chiffres après la virgule que l'on ne puisse pas calculer dessus — sans parler d'un certain relent de « numérologie ».

On présente parfois les mathématiques comme un amoncellement de concepts abscons, de méthodes de calcul à appliquer bêtement, plus ou moins arbitraires. En réalité, ces concepts ont été polis au cours du temps pour répondre à des besoins souvent assez naturels (parler de parts de gâteaux, de diagonales de carrés...). Les règles de calcul « à appliquer bêtement » sont des méthodes dont on peut démontrer qu'elles donnent le bon résultat, et ce qui est « bon » ou non est la conséquence logique de choix assez « naturels ». Il est bien entendu possible de définir des concepts mathématiques différents ; mais il faut assumer les choix que l'on fait de façon cohérente, et cela n'est pas facile. Voyons maintenant quelques exemples de choix « différents ».

Des anneaux quotients !

Nous avons vu les rationnels comme extension des entiers naturels partageant avec eux un certain nombre de propriétés. Il est possible de construire d'autres objets mathématiques ressemblant par certains côtés aux entiers, mais présentant des différences notables. Prenons, par exemple, les chiffres de 0 à 9 (notés en gras pour éviter des confusions), sur lesquels on définit l'addition et la multiplication en prenant celles des entiers mais en ne gardant que le chiffre des unités. Ainsi, on va poser que 9×8=2 parce que 9×8=72, donc de chiffre des unités 2. On peut montrer que l'addition et la multiplication ainsi définies vérifient certaines des lois usuelles sur les entiers (l'addition est commutative, la multiplication distribue sur l'addition...) mais pas certaines autres : par exemple, il est impossible de définir une notion de « plus grand que » / « plus petit que » qui vérifie que si on ajoute 1 alors on obtient forcément un nombre plus grand. Quand on est savant, on dit qu'on a défini l'« anneau quotient ℤ/10ℤ » et ce concept se généralise d'ailleurs à d'autres valeurs que 10...

C'est à l'aide de ce type de concepts que l'on peut expliquer simplement le pourquoi des méthodes (jadis enseignées) de la « preuve par trois » et de la « preuve par neuf ».

Les géométries non euclidiennes

Venons-en maintenant à d'autres concepts souvent mentionnés dans des ouvrages grand public : les géométries non euclidiennes.

La géométrie euclidienne à deux ou trois dimensions, c'est celle que l'on apprend à l'école et qui décrit fort bien la réalité qui nous entoure. Il s'agit, en quelque sorte, de la formalisation de notions intuitives comme les distances, les parallèles, les angles droits... Cette géométrie se généralise d'ailleurs fort bien à un nombre supérieur de dimensions, même s'il faut alors se méfier de nos intuitions parfois spécifiques du cas particulier de la dimension trois.

Cette géométrie parle d'objets tels que les points, les droites, etc. sur lesquels on peut démontrer des propriétés (ou, suivant comment on présente le sujet, postuler ces propriétés et montrer que l'on retombe sur une définition équivalente). On peut là encore se poser la question de ce que l'on pourrait obtenir si on laissait tomber certaines propriétés usuelles... De même que l'on a obtenu des notions « bizarres » d'addition et de multiplication, on peut obtenir des notions « bizarres » de point, de segment et de droite !

Par exemple, on peut interpréter la notion de point comme le point sur une sphère, la notion de segment comme le tracé de plus court chemin entre deux points, la notion de droite comme un « grand cercle » de la sphère (un cercle formé en coupant la sphère par un plan passant par son centre). On continue d'avoir certaines des propriétés usuelles, mais on n'a plus certaines autres. Ce genre de généralisations s'appellent géométries riemaniennes. D'autres choix conduisent à des géométries hyperboliques.

L'existence de géométries non euclidiennes paraît souvent objet de mystère, voire de mystification. Il me semble qu'il n'y a là rien de plus banal que la généralisation d'un concept familier quitte à abandonner certaines de ses propriétés, comme nous l'avons fait plus haut pour ℤ/10ℤ.

Remarques polémiques

Le côté « arbitraire » et « méthodes de calcul stupides qu'on applique sans comprendre » des mathématiques est le produit de la façon dont on les enseigne. J'ignore dans quelle mesure, d'ailleurs, il est possible de faire autrement dans le cadre d'un enseignement de masse obligatoire. L'aspect « calcul bête » peut en effet rassurer certains élèves et fournit des examens au résultat assez prévisible, ce qui est essentiel dans un système scolaire encore très « taille unique » et où il importe qu'une proportion importante des élèves ait le baccalauréat.

Par ailleurs, j'ai remarqué à plusieurs reprises que des gens ayant le baccalauréat, voire un niveau d'études élevé (thèse) ont des difficultés à mettre en pratique des concepts pourtant « de base », comme l'application de la « règle de trois » pour estimer des ordres de grandeur, par exemple de budgets ou de consommations énergétiques. Or, il s'agit là de problèmes extrêmement importants pour la vie citoyenne : quand on a du mal à se rendre compte si une dépense se compte en millions ou en milliards (j'ai vu le cas récemment), on a des difficultés à avoir un avis éclairé sur le budget de l'État ou de la Sécurité sociale...

Enfin, de nombreuses personnes sont dégoûtées des mathématiques telles qu'enseignées, et souvent font vœu ensuite de ne plus avoir rien à faire avec cette discipline. Cela est certes vrai de nombreuses autres matières scolaires (littérature, éducation physique et sportive, philosophie...), mais cela ne dispense pas d'une réflexion sur la façon dont les concepts et les méthodes sont introduits ainsi que le caractère obligatoire des enseignements dispensés.

- page 1 de 93