La vie est mal configurée

Aller au contenu | Aller au menu | Aller à la recherche

jeudi, octobre 30 2014

Une étude de cas sur le journalisme « scientifique »

L'explosion de la navette spatiale Challenger, en 1986, est souvent cité comme exemple pour l'analyse des processus décisionnels qui conduisent à des accidents (en l'espèce, une tolérance qui s'installe face à des déviations inquiétantes des normes de sécurité, et une volonté de complaire aux hauts responsables). En voulant me rafraîchir les idées sur ce sujet, je suis arrivé sur cet article du New York Times, quotidien qui se veut une référence aux États-Unis, voire dans le monde.

Il s'agissait des risques potentiels, notamment pour les amateurs de recherches de débris sur les plages, posés par la présence de carburants hypergoliques, c'est-à-dire d'un couple de carburant et comburants qui s'enflamment spontanément lorsqu'ils se rencontrent, sans nécessité de système d'allumage. De tels carburants étaient notamment utilisés pour les moteurs de manœuvre dans l'espace de la navette, car ils offrent divers avantages pour ce type d'usage, mais ont l'inconvénient d'une forte réactivité, d'où toxicité.

L'auteur de l'article a fait des efforts manifestes de pédagogie concernant les technologies spatiales. Voyons maintenant ce qui me chiffonne, par exemple ce paragraphe :

All rocket propulsion systems require two types of ingredients: a fuel and an oxidizing agent to burn the fuel. The oxygen in air is itself an oxidizing agent, but it is not nearly concentrated or reactive enough to fuel a spacecraft.

Tout ceci est exact, mais le dernier énoncé est pour le moins curieux : « l'oxygène de l'air est un oxydant, mais il n'est pas assez concentré ou assez réactif pour alimenter un vaisseau spatial ». En effet, à l'altitude où la navette spatiale doit intervenir, et utiliser ses moteurs de manœuvre (300500 km), il n'y a tout simplement pas d'air. Il s'agit donc d'un formidable euphémisme… qui suggère une mauvaise compréhension.

Plus loin, on trouve :

United States satellites do not carry nuclear reactors, although some American interplanetary missions operating well beyond earth orbits have been powered by nuclear fusion.

Or, aucun engin spatial, d'une quelconque nationalité, n'a tiré son énergie de la fusion nucléaire — si toutefois on n'inclut pas là dedans l'énergie solaire, ce qui n'aurait aucun sens dans le contexte de l'article, où l'on discute de réacteurs — tout simplement parce que, dans l'état actuel des connaissances scientifiques et techniques, nous ne savons pas encore, en 2014, comment faire un réacteur à fusion produisant de l'énergie. Le réacteur ITER, en cours de construction, est un prototype destiné à tester des idées à ce sujet ; on est donc loin d'un système opérationnel, a fortiori d'un système intégrable dans un satellite. L'auteur aura donc certainement voulu parler de fission nucléaire, c'est-à-dire du phénomène exploité dans les réacteurs actuels, par exemple ceux des centrales électronucléaires françaises.

La fin de l'article (à l'exception du tout dernier paragraphe) peut d'ailleurs être résumée par « d'accord nous avons lancé des cochonneries qui retombent sur la terre, mais les soviétiques ont fait pire avec leurs satellites-espions à réacteurs nucléaires ».

Conclusion ? Dans un article traitant d'un sujet d'importance nationale (le désastre de la navette Challenger a fait l'objet d'une intense couverture médiatique et d'une commission d'enquête parlementaire), publié dans un journal de référence, on peut trouver une erreur grossière (la confusion entre fission et fusion nucléaire), une remarque laissant supposer une certaine incompréhension des problèmes, et des commentaires destinés à conforter un point de vue nationaliste. Je ne pense pas que la presse française fasse mieux…

Gainsbourg, Ringer, Vandel, Niel et Wales

Mes lecteurs l'ont sans doute remarqué : je m'interroge souvent sur les raisons pour lesquelles deux phénomènes sociaux, deux personnalités, sont traitées différemment alors qu'elles partagent les traits pour lesquelles l'un est condamné tandis que l'autre ne l'est pas, voire reçoit des louanges. Autrement dit, j'essaye de comprendre ce qu'il y a derrière un usage discrétionnaire d'un critère de qualification ou disqualification. J'aimerais aujourd'hui évoquer le cas de l'association avec la pornographie.

Généralement, en France, tout ce qui est associé à la pornographie est dévalorisé. Ainsi, en 1986, Serge Gainsbourg pouvait se permettre, sur un plateau de télévision, d'insulter Catherine Ringer, chanteuse du groupe Rita Mitsouko, au motif que celle-ci avait tourné dans des films pornographiques ; ceci est d'autant plus remarquable que Gainsbourg, alcoolique notoire, était largement considéré comme un symbole de la dépravation. Bien sûr, les attitudes ont depuis évolué, mais le stigmate reste ; témoin les méthodes utilisées pour disqualifier Jimmy Wales et Xavier Niel.

Jimmy Wales, au moment de lancer le petit projet qui allait devenir Wikipédia, travaillait dans une petite entreprise nommée Bomis, qui entre autres diffusait des images érotiques (j'ignore jusqu'à quel degré précis). On a ressorti ceci pour disqualifier son intervention dans un domaine culturel tel que la rédaction d'encyclopédies. Quant à Xavier Niel, magnat français de l'accès à Internet (fournisseur d'accès Free), on mentionne parfois, pour le discréditer, ses activités passées dans le « Minitel rose » (mes lecteurs les plus jeunes apprendront ce dont il s'agissait dans Wikipédia) et autres services à connotation sexuelle.

Curieusement, pourtant, on n'entend jamais mentionner en mal le fait que Canal+ se soit constitué une clientèle dans les années 1980 en partie parce que c'était la seule chaîne qui diffusait des films « classés X ». Le journaliste Philippe Vandel peut intervenir et publier des livres sur divers sujets sociaux et politiques, personne ne tente de le disqualifier en rappelant qu'il a fondé sur Canal+ le Journal du Hard. Qu'est-ce qui justifie pareille inégalité de traitement ?

Peut-être est-ce Xavier Niel lui-même qui nous donne une des clefs de cette inégalité de traitement ; il aurait déclaré

« Quand les journalistes m’emmerdent, je prends une participation dans leur canard et ensuite ils me foutent la paix. »

Canal+ a beau s'être construit en partie sur des activités aussi peu intellectuelles et culturelles que la diffusion de films pornographiques et de rencontres sportives, cette chaîne finance le cinéma, et il est appréciable d'être invité sur son plateau le soir ; ses journalistes et ses dirigeants sont bien intégrés dans les milieux culturels, politiques et des affaires français. Par comparaison, Xavier Niel (du moins tant que celui-ci n'investissait pas dans les médias) et Jimmy Wales apparaissent comme des outsiders, qu'il est loisible de critiquer. C'est d'ailleurs depuis longtemps mon sentiment que Wikipédia aurait joui d'un bien meilleur traitement dans les médias français, notamment ceux qui se veulent « culturels », si elle avait employé quelques journalistes ou intellectuels médiatiques, indépendamment de la qualité des articles publiés.

C'est ainsi que l'association avec la pornographie, ou autre domaine déconsidéré, peut être utilisé parfaitement discrétionnairement. On pourra ainsi comparer la véhémence du journaliste Pierre Assouline contre Wikipédia, considérée comme une sorte de fléau intellectuel, et comparer avec la grande modération de ses propos envers l'écrivain Gabriel Matzneff, dont les écrits autobiographiques décomplexés revendiquent l'usage d'enfants prostitués dans des pays pauvres…

mercredi, octobre 29 2014

J'œuvre, je chef-d'œuvre, même

J'ai il y a quelques temps lu un petit livre de Philippe Trétiack, Faut-il pendre les architectes ?. Contrairement à ce que son titre pourrait laisser penser, il s'agit largement d'une défense de cette profession, l'auteur expliquant que les problèmes de l'architecture en France sont largement attribuables à la réglementation tatillonne, à l'extension des interventions d'autres corps de métier (ingénieurs…), au mauvais goût des élus, au mauvais goût et à la frilosité du public (ah, ces horribles associations de riverains), à l'ignorance des journalistes et au manque d'intérêt des médias pour l'architecture, bref, à tout le monde sauf aux architectes.

Ce que j'ai retenu de cette lecture, c'est que l'idée qu'un architecte, ou du moins d'un grand architecte dont le nom mérite d'être cité, se fait de son métier est qu'il doit laisser une œuvre. Celle-ci se doit d'être originale, cette originalité pouvant d'ailleurs passer par l'usage de tel ou tel moyen technique, tel ou tel matériau. On retrouve là une exigence d'autres corps de métier, par exemple les chercheurs scientifiques, qui doivent sans cesse produire des nouveautés.

Or, ce n'est pas ce que le public attend d'un architecte. À mon avis, le public attend des bâtiments jolis (quelque soit le sens de ce mot ; on pourra bien sûr expliquer que le grand public n'y connaît rien), agréables à vivre et aisés à entretenir. Force est de constater que des bâtiments peuvent être jugés comme des réussites architecturales sans répondre à ces besoins.

Prenons quelques exemples dans l'enseignement supérieur. Le bâtiment principal des sciences de l'École normale supérieure de Lyon (« site Monod ») a une très intéressante silhouette, vu de l'extérieur. La perspective sur l'allée d'Italie est très agréable. Sauf que… les bureaux donnant au sud sont invivables par temps ensoleillé, tandis que ceux donnant au nord sont froids, sans doute un résultat du parti-pris « tout en verre ». J'ai également cru comprendre que l'entretien de certaines baies vitrées est difficile, requérant du personnel spécialisé intervenant avec des techniques d'alpinisme. Quant au bâtiment des lettres, il est doté d'une porte à interphone sans auvent, de sorte que, par temps de pluie, le visiteur se fait rincer en attendant qu'on lui ouvre.

Allons maintenant à l'École normale supérieure de Paris, rue d'Ulm : la maquette de son « nouvel immeuble Rataud » a été exposée à la Cité de l'Architecture. Dans cette exposition, ou dans l'évocation positive du bâtiment par le quotidien Libération, nulle mention du caractère glauquissime des couloirs en béton nu sans lumière naturelle, aux éclairages blafards, et dans lesquels on se croit dans une partie de Doom alors qu'on voulait juste aller à une salle de cours ou de réunion ; sans parler des problèmes posés par la poussière de béton tombant dans la bibliothèque de mathématiques et d'informatique (il a fallu, m'a-t-on dit, vernir le béton nu, l'architecte refusant qu'on le peigne…).

Le décalage entre la vision de l'architecte, ou du journaliste fan d'architecture, et la vision de l'usager est manifeste ; on peut s'interroger de ce qu'il en est dans d'autres domaines d'activité.

Certains ingénieurs rendent également un culte à la nouveauté, à la technique pour elle-même : ils veulent une solution « élégante », ou utiliser telle nouvelle approche parce que cela les excite ou parce que d'autres ne l'ont pas déjà fait. Toutefois, dans la plupart des industries, on ne laisse pas les ingénieurs seuls décider de ce qui doit interagir avec l'utilisateur final ; et il me semble que cela est sain, tant il existe parfois un décalage entre ce que les utilisateurs finaux désirent et ce qui excite les ingénieurs. Personne n'achètera un téléphone portable ou n'ira sur un site Web parce que celui-ci met en œuvre tel ou tel nouveau paradigme de programmation !

Il me semble qu'on peut résumer ainsi la tension évoquée dans l'ouvrage de Philippe Trétiack : les architectes veulent faire œuvre, tandis que les utilisateurs et riverains n'ont que faire de cela. Tandis que nul — sauf les écoliers — n'est forcé de lire de la littérature, tandis que nul n'est forcé d'écouter de la musique contemporaine, les usagers subissent les conséquences de choix architecturaux au sujet desquels on ne leur a pas demandé leur avis. De là sans doute les protestations et le titre de l'ouvrage...

Convenances sociales : il faut déclarer « lire »

Fleur Pellerin, Ministre de la Culture, après avoir félicité Patrick Modiano pour son prix Nobel de littérature, a avoué ne pas avoir lu de romans de celui, ni d'ailleurs aucun livre depuis deux ans. Tollé ; certains parlent de honte pour la France.

J'ai assisté à des remises de décorations et autres cérémonies en l'honneur de collègues. En général, le haut responsable officiant est bien embarrassé au moment d'évoquer la contribution de l'éminent scientifique. Certains brodent sur le fait qu'elle est exceptionnelle, mais sans préciser pourquoi ; d'autres avouent honnêtement ne rien y comprendre ; certains, enfin, sans doute sur la base d'une fiche mal préparée par un subordonné pas plus compétent, s'aventurent dans des contre-sens. J'ai ainsi le souvenir savoureux d'un célèbre logicien félicité pour ses travaux en robotique et son attention aux applications ; quant à mon directeur de thèse, célèbre expert en analyse statique, il fut, lors de la remise de l'Ordre national du Mérite, félicité pour ses travaux en « analyse syntaxique » — il est vrai que j'ai été moi-même plusieurs fois présenté comme expert en « analyse statistique ». Bien entendu, l'assistance ne relève pas et rit sous cape.

Pour moi, la normalité est que le haut responsable qui félicite n'a aucune idée précise de ce pourquoi il le fait, et de toute façon on n'attend pas cela de lui — tout au plus, en cas d'insuffisance flagrante, reprochera-t-on à ses subordonnés de ne pas avoir fait convenablement leur travail. Ainsi, personne n'attendait de François Hollande et Manuel Valls félicitant Artur Ávila ou Jean Tirole qu'ils comprissent quoi que ce soit à leurs travaux. Certes, la littérature est censée être d'abord plus aisé que des travaux théoriques de haute volée ; mais il me semble que, derrière cette polémique, il y a autre chose, à savoir un manquement aux conventions sociales françaises traditionnelles.

En France, il est de bon ton, du moins dans certains milieux, d'affecter aimer la littérature et de déclarer lire des livres, c'est-à-dire des romans (éventuellement de la poésie, des nouvelles ou du théâtre). C'est cela, au fond, que l'on reproche à Fleur Pellerin : de ne pas avoir correctement habité la fonction de représentation d'un ministère autrefois occupé par des personnalités aussi flamboyantes qu'André Malraux ou Jack Lang. Un peu comme l'on attend (peut-être moins de nos jours qu'il y a quelques décennies) des hauts responsables politiques qu'ils se montrent à la tribune des compétitions sportives, afin de montrer leur intérêt pour les loisirs du peuple.

Personnellement, je n'attends pas de la ministre de la Recherche qu'elle connaisse les scientifiques éminents et leurs travaux. J'attends en revanche d'elle qu'elle sache ce qu'est la recherche scientifique — ce qui n'a rien d'évident, tant les gens ont des idées fausses ou réductrices à ce sujet —, qu'elle gère bien ce dont a la responsabilité et qu'elle défende son domaine dans les arbitrages ministériels.

Bien sûr, on peut déplorer une pareille « attitude gestionnaire ». Ce qui est curieux, c'est qu'on se réveille pour dénoncer les « gestionnaires » maintenant, et en ce qui concerne la Culture, alors que l'État est depuis un certain temps déjà « géré » par des énarques et des politiciens professionnels, allant d'un poste à l'autre et n'ayant souvent rien connu d'autre que la politique.

vendredi, octobre 24 2014

3 mecs dans un garage, et l'antiterrorisme débarque

Débats parlementaires sur le projet de loi relatif à la lutte contre le terrorisme : la Commission mixte paritaire a proposé un texte qui sera soumis au vote des deux assemblées, et, sous toute probabilité, adopté.

Ce texte permet notamment au Ministre de l'Intérieur d'interdire la sortie du territoire français (avec saisie du passeport et de la carte nationale d'identité) à des personnes soupçonnées de vouloir commettre des actes terroristes (article 1er), et d'ordonner la censure ou le blocage de sites Internet « lorsque les nécessités de la lutte contre la provocation à des actes terroristes ou l’apologie de tels actes relevant [...] ou contre la diffusion des images ou des représentations [pornographiques] de mineurs » (article 9).

Les opposants à ce texte arguaient que de telles décisions attentatoires aux libertés ne sauraient être prises que par un juge judiciaire, indépendant du pouvoir. Les partisans du texte arguaient que, de toute façon, il y aurait la possibilité d'un contrôle a posteriori par le juge administratif, et justifiaient pareilles possibilités par la commodité, la rapidité et l'efficacité de l'action policière. Et puis, disait-on, les policiers de la Direction générale de la Sécurité intérieure (DGSI) sont des professionnels expérimentés et qualifiés, qui ont à cœur la protection des intérêts de la France, et qui ne vont pas demander des censures à tort et à travers.

Pardonnez maintenant une petite analogie.

De nos jours, on impose (sous peine de non-financement) aux chercheurs en sciences du vivant de soumettre leurs projets d'expérimentations animale à des comités d'éthique spécialisés, préalablement à l'expérimentation envisagée. Personne, sans doute, n'oserait prétendre que les chercheurs d'instituts tels que le CNRS ou l'INSERM, ou les enseignants-chercheurs des universités, ne sont pas des professionnels qualifiés et expérimentés. Simplement, on pense que, par souci de commodité, de rapidité et d'efficacité de leurs recherches, ces personnels pourraient négliger l'importance de certains effets secondaires de leurs actions.

Je ne vois donc pas pourquoi ce qui est valable pour un chercheur de l'INSERM ne serait pas valable pour un policier de la DGSI… ou pour un ministre de l'Intérieur, à savoir que parfois la tentation est forte de prendre le moyen le plus commode et le plus rapide indépendamment des conséquences et « effets secondaires ».

Par ailleurs, dans divers pays dont la France, on a constaté que les mesures et moyens adoptés dans le cadre de l'antiterrorisme et de la lutte contre la pédopornographie finissent par l'être à l'égard de phénomènes sociaux bien plus bénins, parfois même légaux. J'ai par exemple décrit, dans un billet précédent, comment au Royaume-Uni un système censé censurer la pédopornographie en est venu à bloquer Wikipédia pour une couverture d'un album de rock, certes de très mauvais goût, mais… en vente publique depuis 30 ans sans que quiconque n'y trouve à redire.

Plus près de nous, en France, on a engagé les moyens de l'antiterrorisme pour une affaire d'attaque du portail Internet d'EDF… en pensant à des « hackeurs, des super informaticiens, des petits Einstein du Web », alors qu'on n'a finalement arrêté que des monsieur et madame tout-le-monde, peu expérimentés. Comme dit Le Monde :

« L'affaire EDF est exemplaire. Elle implique des dizaines d'internautes, et les policiers et les magistrats ont déployé les grands moyens. Pour un maigre résultat : deux mises en examen. »

Pour cette affaire, on a engagé une juridiction spécialisée en affaires criminelles ; la Direction centrale du renseignement intérieur (DCRI, prédécesseure de la DGSI, successeure de la DST) ; une coopération internationale, notamment avec la police fédérale allemande (BKA). C'est qu'EDF est un « opérateur national d'importance vitale » c'est-à-dire un organisme gérant

« un établissement, une installation ou un ouvrage sis sur le territoire national dont le dommage, l’indisponibilité ou la destruction par suite d’un acte de malveillance, de sabotage ou de terrorisme risquerait, directement ou indirectement : d’obérer gravement le potentiel de guerre ou économique, la sécurité ou la capacité de survie de la Nation ; ou de mettre gravement en cause la santé ou la vie de la population. »

Clairement, il s'agit ici de protéger les centrales nucléaires, barrages, grands équipement de réseaux électriques, et il y a comme une curieuse extension à faire rentrer dans ce cadre la lutte contre l'attaque contre un portail commercial, qui n'a sans doute pas plus d'importance pour la survie de la Nation que celui d'Amazon ou de Voyages-SNCF.

J'en conclus qu'à partir du moment où l'on donne à des services de police des moyens exceptionnels pour lutter contre des menaces rares et graves, il y aura une tentation permanente à s'en servir contre des problèmes secondaires pour lesquels les moyens actuels seraient suffisants. C'est bien ce qui me chiffonne dans cette loi.


mardi, octobre 21 2014

Pourquoi, structurellement, il faut se préoccuper des débouchés des doctorants

Dans un billet précédent et dans ses commentaires, notamment celui de Mix La Malice, nous avons mis le doigt sur une réalité qui fait mal : structurellement, l'immense majorité des docteurs ne trouvera pas d'emploi dans l'enseignement supérieur et la recherche.

Nos raisonnements sont des calculs d'ordre de grandeur, « sur le dos d'une enveloppe », et ne prétendent pas à l'exactitude quantitative ; ils me semblent cependant qualitativement corrects.

Le calcul de Mix : il y a de l'ordre de 70000 chercheurs publics (en comptant les enseignants-chercheurs et les chercheurs des EPST comme le CNRS ; ne pinaillons pas sur ceux des EPIC) dont mettons la moitié ont l'habilitation à diriger les recherches (HDR). Comptons 20 ans d'encadrement par chercheur HDR, et trois ans minimum par thèse. Cela fait mettons 5-6 doctorants par chercheur au cours d'une carrière. Si l'on prend comme hypothèse qu'on remplace chaque départ à la retraite, cela fait de l'ordre de 80 % des doctorants qui ne pourront obtenir un emploi dans le supérieur (un peu moins en tenant compte du fait que tous les maîtres de conférence ou assimilés n'obtiennent pas l'HDR et pourtant leurs emplois doivent être renouvelés, mais on doit rester sur le même ordre de grandeur).

Le nombre de postes ouverts au recrutement est environ 2000 par an, pour de l'ordre de 10000 docteurs chaque année. Là encore, on retrouve ce ratio de 80 % qui ne pourront trouver d'emploi dans le supérieur.

Bien entendu, ces calculs sont extrêmement imprécis, basés sur des hypothèses simplificatrices, etc. ; il n'en reste pas moins que le raisonnement suivant tient parfaitement :

  1. Un professeur des universités ou assimilé, un chargé de recherche, sont fortement incités à encadrer des doctorants, via l'évaluation statutaire (« vous devriez vous investir plus dans l'encadrement de jeunes chercheurs »), via les promotions (peut-on devenir directeur de recherche sans avoir encadré de doctorant ?) et l'existence de la prime de recherche et d'encadrement doctoral (PEDR), pour laquelle l'encadrement de doctorants est quasiment une condition sine qua non.

  2. La durée des carrières de recherche étant bien supérieure à celle des thèses, un chercheur a en moyenne plusieurs doctorants au cours d'une carrière.

  3. À moins d'une forte expansion (exponentielle) de la taille du système d'enseignement secondaire et de recherche, situation qui ne saurait être que temporaire, la grande majorité des doctorants ne pourront donc pas devenir chercheurs dans le supérieur.

L'alternative serait un système semblable à celui de l'Ordre Sith : un maître ne prend qu'un seul disciple, qui finit par le remplacer quand le maître prend sa retraite passe l'arme à gauche.

J'entends parfois des gens se plaindre de problème conjoncturelles ou politiques : si le Gouvernement était autre, si la Ministre Secrétaire d'État pensait différemment, il n'y aurait pas de problème. Les estimations ci-dessus montre que, même si évidemment un changement de politique pourrait adoucir la situation, il n'en reste pas moins que, structurellement, même avec une politique ambitieuse de recherche, la majorité des docteurs ne pourra trouver d'emploi d'enseignant-chercheur ou chercheur.

Or, il me semble assez clair qu'une bonne partie du système d'enseignement supérieur et de recherche ignore ce fait et s'abstient de prévoir les débouchés réels de ses doctorants. On fait travailler des doctorants, parfois sans les payer (alors que ces doctorants sont pris en compte pour les dossiers PEDR…) en leur faisant miroiter la possibilité d'un emploi d'enseignant-chercheur.

Examinons la question froidement, en termes mathématiques. Quels sont les mécanismes tendant à limiter le déséquilibre entre docteurs et débouchés ?

Le premier est l'existence, dans le système d'enseignement supérieur, d'emplois d'enseignants ne pouvant encadrer de doctorats : PRAG, professeurs de classes préparatoires aux grandes écoles. Ces emplois sont des débouchés naturels pour les docteurs, qui en revanche n'augmentent pas la production « naturelle » de docteurs. On peut aussi mentionner, de ce point de vue, les emplois officiellement « enseignants-chercheurs » dans des établissements où l'on fait peu de recherche ou où, même s'il y a de la recherche, il est très difficile de recruter des doctorants.

Aux États-Unis, cette partition entre établissements de recherche et autres établissements et assez officialisée : il existe des universités de recherche de premier rang (le système University of California, p.ex.), des universités de second rang, et pour finir des colleges où il n'y a pas de programme doctoral. Les docteurs venant des premières catégories vont enseigner dans les catégories suivantes.

Le second mécanisme est la limitation des financements. Dans la plupart des établissements, dans la plupart des disciplines scientifiques « exactes », il est interdit de prendre un doctorant non financé, que ce soit par une allocation de recherche de l'école doctorale (sur critères compétitifs, habituellement) ou par un contrat de recherche du laboratoire. À ce propos (la situation a peut-être évolué depuis), il y a quelques années il était interdit de financer des thèses à l'aide de contrats de l'Agence nationale de la recherche (ANR) en lettres, sciences humaines et sociales, et biologie : on m'avait expliqué officieusement cette restriction par les forts problèmes de débouchés et de chômage dans ces disciplines, l'ANR ne voulant pas être accusée de financer la précarité.

On peut bien sûr refuser pareilles approches malthusiennes, au sens qu'elles supposent constante la ressource de débouchés et donc tendent à limiter l'accroissement de population. Si l'on veut cependant améliorer la condition des doctorants, il faut alors se pencher sérieusement sur leurs débouchés hors enseignement supérieur et recherche…

Dans certaines disciplines scientifiques « exactes », dont l'informatique, les débouchés hors recherche sont assez naturels dans l'industrie, et assez faciles à obtenir tant que l'on s'y prend suffisamment tôt (j'ai l'impression que les profils ATER-post-doc-à-répétition ne sont guère engageants pour les industriels) et que l'on accepte que son emploi soit de développement et non de recherche (les emplois de chercheurs industriels sont rares et demandés).

Il reste donc à réfléchir à ce que pourraient être les emplois des docteurs dans les autres disciplines. Certes, on parle de l'ouverture des grands corps de l'État aux docteurs et de l'insupportable corporatisme des énarques, mais même s'ils étaient largement ouverts cela ne représenterait qu'une très petite minorité des nouveaux docteurs. Quels seraient les emplois privés possibles ?

En conclusion, je voudrais rappeler ce point très important : même si nous étions en période faste pour la recherche, la grande majorité des doctorants devraient trouver un emploi ailleurs que dans la recherche. Il est donc vain (même si cela évite certaines remises en question) de réclamer « une autre politique de recherche » comme unique solution aux problèmes des doctorants, même s'il ne faut pas nier la responsabilité politique à ce sujet.

PS : Mathieu Perona vient de publier un article sur ce sujet. Le Couard Anonyme, quant à  lui, tente d'expliquer la différence de vision sur la nature de la thèse entre LSHS et sciences dites exactes.

Le chasse-neige et le bug

J'ai travaillé sur plusieurs projets ayant pour application la sûreté de fonctionnement des systèmes informatiques pilotant des avions, notamment sur l'outil Astrée. Lorsque j'évoque ces travaux auprès du grand public, on finit souvent par me dire quelque chose comme « mais, de toute façon, le pilote peut repasser en manuel ».

C'est beau, la naïveté des adultes. Mais, comme dirait un célèbre auteur de bandes dessinées français, lourd est le parpaing de la réalité sur la tarte aux fraises de nos illusions… d'où d'ailleurs, en fin de ce billet, quelques questions psychologiques et sociales intéressantes. Pour ma part, ne prétendant nullement à une quelconque expertise en aviation, je m'en tiendrai aux textes de référence et autres documents publiés par les spécialistes du domaine.

Les systèmes informatiques intervenant dans le pilotage des avions sont sévèrement réglementés. La norme internationale en la matière (DO-178B, §2.2.1 ; ou DO-178C) classe les systèmes en 5 niveaux de sûreté exigée, décroissant de A à E, suivant les conséquences possibles d'un dysfonctionnement. Une panne d'un système de niveau E n'a aucune conséquence sur les capacités de vol ou sur la charge de travail de l'équipage. Une panne d'un système de niveau B peut avoir diverses conséquences négatives, dont des blessures potentiellement fatales à un petit nombre d'occupants (passagers et équipage). Une panne d'un système de niveau A peut avoir des conséquences « catastrophiques », empêchant la poursuite du vol et l'atterrissage dans des conditions de sécurité ; en clair, de nombreuses morts, fort probablement par perte de l'appareil. Les outils que je développais étaient principalement destinés au niveau A…

Peut-être y a-t-il un trait psychologique courant derrière l'idée fausse qu'il existerait un « mode manuel » que les pilotes pourraient forcément activer à temps en cas de problème, peut-être est-ce simplement le résultat d'œuvres de fiction où l'on « déconnecte le pilote automatique ».

À notre époque, il est courant que l'expertise des spécialistes et que les règles de sécurité édictées par les pouvoirs publics soient contestées par de simples citoyens ou des groupes se réclamant de la « société civile ». Nucléaire, vaccins, nanotechnologies : toujours, on accuse les industriels de mensonges, les pouvoirs publics (les autorités publiques de régulation) de collusion avec les industriels, et les scientifiques de conflits d'intérêts. Curieusement, on ne trouve personne pour remettre en cause les règlements sur la sûreté des avions !

Il est vrai que, quelles que soient les craintes que certains éprouvent à l'égard du transport aérien, il y a fort peu d'accidents d'avion… et qu'il est sans doute moins probable qu'il y ait un crash suite à un dysfonctionnement informatique que suite à la présence de bernaches du Canada ou d'un chasse-neige sur le chemin de l'avion !

lundi, octobre 20 2014

Les doctorants en entreprise : pourquoi une thèse en 7 ans vous dessert

J'ai récemment discuté avec plusieurs doctorants et jeunes docteurs de diverses disciplines, notamment en sciences humaines et sociales, au sujet du devenir des jeunes chercheurs et de la pénurie de postes. Voici quelques modestes réflexions sur le sujet.

Parmi les missions des universitaires, notamment des professeurs des universités et assimilés, il y a l'encadrement de doctorants (c'est d'ailleurs une condition nécessaire à l'attribution de certaines primes !). Un chercheur ou un laboratoire qui n'en encadreraient pas assez se verraient inviter à « s'investir plus dans l'encadrement de jeunes chercheurs ». Même s'il existe des universitaires, notamment des maîtres de conférences très investis dans l'enseignement, qui au cours de leur carrière n'encadrent jamais de doctorant, on en déduit qu'en moyenne un universitaire encadre plusieurs doctorants au cours de sa carrière (j'aimerais d'ailleurs disposer de statistiques précises à ce sujet, de préférence ventilées par discipline).

Si chaque docteur, ou presque, devait trouver un emploi comme enseignant-chercheur ou chercheur, la croissance du nombre de chercheurs serait exponentielle avec un temps de doublement de l'ordre de dix ans, ce qui bien évidemment dépasse grandement la croissance effective du nombre de chercheurs, qui grossièrement suit celle du nombre d'étudiants auxquels enseigner, qui suit lui-même grossièrement la croissance de la population. On en déduit que, structurellement, l'Université produit plus de docteurs qu'elle ne peut en embaucher (je suis bien conscient que j'enfonce ici des portes ouvertes, mais c'est pour bien fixer les idées).

Quels sont donc les débouchés des docteurs qui ne trouvent pas d'emploi dans l'enseignement supérieur et la recherche, parfois après un temps plus ou moins long passé dans des emplois précaires dans ce domaine (post-doctorats, ATER, etc.) ? Principalement l'enseignement secondaire et les entreprises privées. Se pose donc naturellement le problème du placement des docteurs dans les entreprises.

Je discutais récemment avec une jeune docteure en études germaniques, qui se plaignait du manque d'entrain des entreprises privées à embaucher des docteurs en lettres, sciences humaines et sociales (LSHS). Je disais qu'à mon sentiment, et sans prétendre sur ce sujet à une quelconque précision scientifique qui ne saurait être atteinte que par des études sociologiques que je n'ai ni le temps ni la compétence de mener, ce manque d'entrain pouvait s'expliquer par quelques facteurs :

  1. Les responsables des entreprises ne savent pas ce qu'est la recherche et les qualités qu'on y acquiert (problème partagé avec les docteurs ès sciences).

  2. Les docteurs sont perçus comme s'intéressant à des problèmes ésotériques et non à ce qui pourrait réellement profiter à l'entreprise (problème partagé avec les docteurs ès sciences).

  3. Les thèses en LSHS sont souvent menées en parallèle avec un emploi à temps plein, par exemple enseignant du secondaire. Elles sont donc perçues comme une sorte de hobby et non comme un travail sérieux.

  4. Les thèses en LSHS durent longtemps, au-delà de la durée réglementaire de trois ans : une doctorante me disait qu'elle se réinscrivait en 7e année. Ceci semble indiquer un mode, une culture de travail, où l'on est incapable de tenir un délai.

Mon interlocutrice a réagi violemment à ce dernier point : comment donc, une entreprise voudrait-elle embaucher quelqu'un qui bâcle son travail ?

Ce que l'un qualifie de « travail raisonnable étant données les contraintes de temps », l'autre qualifiera de « travail bâclé ». Il me semble que l'on touche ici à une différence importante de culture entre les sciences dites exactes et les LSHS.

J'entends parfois des collègues de LSHS justifier la longue durée des thèses dans leurs disciplines par la profondeur des sujets étudiés ; l'argument, plus ou moins implicite, est que le sujet d'une thèse de sciences exactes est assez « balisé » et qu'il suffira donc de mener quelques expériences et rédiger les résultats pour avoir sa thèse, tandis que dans leur discipline il faudra réellement creuser et se construire une érudition. Il est possible que, dans certaines disciplines de sciences exactes, effectivement, cela soit le cas ; mais ce que je constate autour de moi, c'est qu'on lance les doctorants sur des sujets qui, potentiellement, pourraient occuper les gens 5 ans, 10 ans… mais qu'au bout d'un certain temps on dit qu'on laissera tomber certaines pistes de recherche, certaines expériences et qu'on rédigera en l'état en indiquant les travaux non encore menés comme « travaux futurs possibles ».

Autrement dit, il ne s'agirait pas tant que dans certaines disciplines les sujets sont intrinsèquement plus profonds, mais que dans d'autres on clôt « raisonnablement » les travaux lorsque le financement expire, la thèse n'étant pas perçue comme une grande œuvre mais comme un premier travail de recherche qui devra de toute façon être suivi d'autres. À l'inverse, j'entends parler en lettres de directeurs de thèse exigeant des travaux supplémentaires fort longs (traduction de textes supplémentaires, par exemple), au mépris du respect des délais et de la situation sociale et familiale du doctorant.

Il me semble que c'est ainsi que fonctionnent les entreprises : pour un projet donné, il y a des objectifs, une durée et un financement prévus, que l'on va s'efforcer de tenir. L'employé perfectionniste qui, sous prétexte de « ne pas rendre un travail bâclé », voudrait largement dépasser les délais parce que la solution fournie est insuffisamment parfaite, serait un danger. Au contraire, on recherchera des gens qui savent faire un compromis acceptable pour la survie de l'entreprise et la satisfaction des clients.

Résumons-nous. Pour de simples raisons démographiques, il est impossible que tous les docteurs obtiennent un emploi de chercheur ou enseignant-chercheur. Il faut donc prévoir des débouchés alternatifs dans les entreprises privées ; mais certaines habitudes de pensée et de travail prises dans certaines disciplines semblent aller à l'inverse de ce que les entreprises attendent !

PS Sur ce sujet, lire aussi le Couard Anonyme.

dimanche, octobre 19 2014

Einstein, Mortimer, Tournesol et nous

Lorsque l'on explique que l'on est « chercheur », il y a souvent un malin — ou plutôt, quelqu'un qui se croit tel — qui sort cette citation attribuée à Charles de Gaulle :

« Des chercheurs qui cherchent, on en trouve ; des chercheurs qui trouvent, on en cherche. »

Peu importe que cette phrase n'ait, sous toute probabilité, jamais été prononcée par Charles de Gaulle, celui (ou celle) qui la prononce n'en est pas à cela près…

S'ensuit alors parfois une anecdote du genre « j'ai connu un type qui travaillait au CNRS, hé bien il ne fichait rien ». Que cette anecdote d'une connaissance d'un ami d'un cousin de l'interlocuteur au sujet d'une personne travaillant (à quel poste ? chercheur, technicien, secrétaire ? dans quel laboratoire ? quelle discipline ?) soit invérifiable et indistinguable d'une légende urbaine importe également peu : l'important est de pouvoir dire, sous couvert d'une gausserie, que les chercheurs scientifiques sont au mieux des rêveurs inutiles, au pire des fainéants. S'inscrivent également dans cette thématique les gausseries envers des recherches jugées inutiles, par exemple sur la cassure des spaghettis, ou sur les poissons qui changent de sexe.

Réflexions de beaufs sans importance au comptoir de Cafés du Commerce provinciaux ? Pas uniquement : de hauts responsables politiques ont eu des propos allant en ce sens. Il convient donc de se demander pourquoi des personnes a priori éduquées peuvent prononcer ce genre de propos sérieusement, voire en pensant être en quelque sorte subversives (c'est un trait regrettable de la France de 2014 que des gens puissent s'afficher comme en quelque sorte des libre penseurs dont on bâillonne l'expression alors qu'ils ressassent sur tout support des clichés éculés).

Pour ma part, je vois dans la culture populaire, conjuguée à l'ignorance de la réalité du fonctionnement de la recherche scientifique, la source de cette incompréhension. Dans la culture populaire (films, bandes dessinées…), le scientifique est soit une sorte de génie polyvalent qui conçoit seul ou presque des machineries complexes (qu'elles soient maléfiques ou bénéfiques, les professeurs Tournesol et Mortimer entrant dans ce dernier cas), soit un intellect supérieur et solitaire travaillant sur des problèmes ésotériques et dont l'excellence est démontrée par le prix Nobel (ou la médaille Fields, depuis que Cédric Villani a pris sur lui d'incarner les mathématiques dans les médias populaires). L'avancement de la Science procède par à-coups et « grandes découvertes » produites par des génies (Einstein).

Or, cette image ne correspond pas à la réalité. Un vrai scientifique travaille le plus souvent en équipe. Il est compétent sur un sujet ou un ensemble de sujets relativement précis, même si bien sûr il peut avoir une « culture générale scientifique » plus large. Le métier d'ingénieur est différent de celui d'un chercheur scientifique, même s'il y a un continuum entre les deux ; la conception d'un engin complexe nécessite une équipe d'ingénieurs en plus du chercheur, même génial, qui a découvert le principe de base de son fonctionnement. La recherche scientifique « intéressante » (quel que soit le sens que l'on attache à ce mot) ne se limite pas à l'infime minorité d'individus qui obtiennent le prix Nobel. Les « grandes découvertes » de rupture se produisent le plus souvent dans un contexte de questionnements, approches voisines, état de l'art qui ont permis l'avancée cruciale.

Le processus conduisant d'une découverte scientifique à une application innovante semble très mal connu. Dans l'imaginaire populaire, le scientifique qui fait une découverte « utile » peut potentiellement immédiatement la mettre en œuvre dans une « invention », qu'il va construire dans son atelier (le sous-marin de Tournesol) ou dont il concevra les plans (l'Espadon de Mortimer). La version managériale moderne de cette croyance est l'encouragement à fonder des start-ups. En réalité, une bonne partie des innovations débouchant sur des produits qui se vendent bien ne sont pas scientifiques, mais industrielles et marketing ; les travaux scientifiques agissent plutôt de façon diffuse, la conception d'un produit innovant n'étant possible que par l'état général des connaissance et la formation d'étudiants à cet état des connaissances.

Pour prendre un exemple concret, il n'y a aucune découverte scientifique spécifique et « de rupture » derrière le succès de l'iPhone d'Apple ; les découvertes scientifiques s'y rapportant (semiconducteurs, traitement du signal, informatique, etc.) s'appliquent également aux modèles d'autres constructeurs ; ce qui a fait la différence ce sont l'image, l'attention aux détails, la conception… Je dirais même que c'est le cas le plus général et que les produits technologiques permis par une avancée scientifique précise sont une infime minorité. De même, le commerce électronique n'a pas décollé dans les années 1990-2000 suite à une invention précise, mais notamment grâce à des recherches sur la cryptographie à clef publique menées dans les années 1970, elles-mêmes basées sur des siècles et des siècles de recherches en arithmétique, domaine des mathématiques pourtant jadis réputé inutile car inapplicable aux tâches industrielles et militaires… de l'époque.

Un peu de culture scientifique permettrait pourtant de comprendre que si l'on veut, par exemple, construire des poutres en fibre de carbone qui cassent moins, il est important de comprendre les mécanismes de la cassure et que ces mécanismes peuvent être étudiés sur des objets moins coûteux, par exemple des spaghettis crus. De même, concevoir des algorithmes efficaces pour projeter des polyèdres en grande dimension peut paraître une recherche inutilement ésotérique, si on ignore que de tels polyèdres interviennent dans des problèmes de sûreté de fonctionnement de logiciels qui pilotent des avions, des trains, etc. Là encore, il s'agit de faire avancer l'état des connaissances plutôt que produire une découverte « magique ».

Ainsi,derrière les discours sur « l'innovation de rupture » et l'« excellence » il y a une sorte d'imagerie d'Épinal où le chercheur scientifique « qui trouve » soit est Einstein, soit construit lui-même une invention, les autres chercheurs étant au mieux des rêveurs inutiles, au pire des tire-au-flanc.

mercredi, octobre 8 2014

Une croissance exponentielle, une vraie

Mes lecteurs savent peut-être mon agacement quant à l'usage inapproprié qui est fréquemment fait de l'adjectif « exponentiel ». Celui-ci semble parfois signifier « très gros » ou « qui croît très vite ». Or, ce mot a un sens précis que je m'en fais illustrer ici sur un exemple d'actualité.

Considérons le graphe ci-dessous, donnant une quantité mesurée en fonction du temps : à la date d'origine (0 jours), la mesure est de 29, un jour plus tard de 59, 60 jours plus tard de 185, etc. On voit clairement que la quantité croît avec le temps. Il ne s'agit pas d'une croissance linéaire, c'est-à-dire d'une croissance où l'on rajoute la même quantité à la mesure pour un même intervalle de temps : par exemple, entre le jour 101 et le jour 136, l'accroissement est de 961-481=480, alors qu'entre le jour 139 et le jour 174, l'accroissement est de 2461-1013=1148, alors que dans les deux cas l'intervalle de temps est de 315 jours (on parle de croissance linéaire parce que le graphe aurait alors la forme d'une ligne droite). En revanche, on peut constater qu'entre le jour 101 et le jour 136, la mesure a été multipliée environ par 2, et entre le jour 139 et le jour 174 par 2,4 ; plus généralement on a l'impression que la quantité double environ tous les 35 jours.

Traçons maintenant autrement les mêmes données, en échelle logarithmique : au lieu de signifier un accroissement de 100 à 200, puis de 200 à 300, etc. (incréments de 100), une graduation signifiera un passage de 10 à 100, de 100 à 1000, de 1000 à 10000, etc.. Cette fois-ci, on voit que les mesures semblent se placer le long d'une droite. Sans rentrer dans des détails mathématiques inutiles, disons que cette droite dit que la quantité double en un peu moins de 34 jours (ou décuple en environ 112 jours). C'est cela que l'on appelle croissance exponentielle : quand il existe un nombre n de jours (ou de secondes ou d'années) telle que la une quantité double (environ) tous les n jours. (On parle de décroissance exponentielle quand la quantité est divisée par deux tous les n jours.)


Il n'y a rien d'extraordinaire à constater une croissance exponentielle : c'est ce qu'il advient, par exemple, des fonds déposés sur un compte à intérêts composés, c'est-à-dire dont les intérêts sont déposés sur le compte. Ainsi, une somme placée sur un compte à 3,5 % d'intérêt double au bout de 20 ans. C'est également la croissance du nombre de lapins sur un territoire tant qu'il y a suffisamment de nourriture et pas de prédateurs. On comprend donc que l'exponentielle traduit une sorte d'auto-emballement : les intérêts déposés sur le compte bancaires accroissent la somme sur celui-ci, de sorte que les intérêts versés l'année suivante sont plus élevés, mais eux aussi accroissent la somme, etc. Pour les données ci-dessus, l'exponentielle correspond à un accroissement de 2 % par jour.

À ce point de l'exposé, on peut se demander quelles sont ces données mystérieuses que j'ai utilisées. Il s'agit du nombre total de morts attribués au virus Ebola lors de l'actuelle épidémie en Guinée, Liberia, Sierra Leone, Nigeria et Sénégal à compter du 23 mars 2014 (jour zéro dans mon graphe).

J'espère que ceci aura permis à mes lecteurs d'avoir un exemple concret de ce qu'est vraiment une croissance exponentielle.

(Et je saura gré à d'éventuels connaisseurs en épidémiologie qui me liraient de me donner des raisons pour lesquelles cette croissance exponentielle pourrait cesser avant d'atteindre, disons, 1 à 10 millions de morts courant 2015. Car je n'en vois pas ; mais je n'y connais pas grand chose.)

mercredi, octobre 1 2014

Acte de foi

Cet après-midi, au sujet des théorèmes de complétude et d'incomplétude de Gödel (oui, Gödel, qui n'était pas un imbécile, a démontré à la fois la complétude, en thèse, et l'incomplétude, en habilitation) :

DM : Nous sommes d'accord, nous ne remettons pas en cause les maths normales que nous faisons comme d'habitude, la métalogique.

[…]

DM : Cette formule exprime arithmétiquement l'existence d'une preuve de l'absurde dans l'arithmétique de Peano. Mais cette théorie n'est pas absurde, puisque les entiers naturels existent…

un élève, m'interrompant : Mais c'est un acte de foi !

DM : On avait dit qu'on ne remettait pas en cause la métalogique !

Si on remet en cause la métalogique, il n'y a plus de bornes aux limites, comme diraient les Veilleurs.

Plus sérieusement, oui, en effet, sans aller jusqu'à l'acte de foi (d'ailleurs acte de foi se dit auto da fé en portugais, comme quoi il faut être prudent quant à ce que l'on fait pour la foi !), les mathématiques informelles sont un cadre de communication intersubjectif sur lequel il existe une espèce de consensus. Même ceux qui font de la logique intuitionniste (oui, même toi qui me lis avec ProofGeneral dans l'autre fenêtre) ont tendance à parler en mathématiques informelles classiques. Je sais bien que Kronecker (qui n'était pas un imbécile) disait que les entiers naturels avaient été créés par Dieu, mais je ne vois même pas le besoin de croire.

Les mathématiciens souscrivent généralement à l'idéologie que, s'ils en avaient le temps et la volonté, ils pourraient transcrire leurs raisonnements dans la théorie des ensembles axiomatisées par Zermelo et Fraenkel (qui n'étaient pas ses imbéciles) avec l'axiome du choix. En fait, je pense que la plupart s'en fichent et n'affichent cette idéologie que pour se donner une contenance. De toute façon, comme le montrent les travaux de Georges Gonthier (qui n'est pas un imbécile) et al (al est ce mec qui a un h-index de délire), la base fondamentale n'est guère importante : tant que l'on fait des mathématiques normales (hors logique), un codage à base de double négation pour récupérer la logique classique et on passe sans problème en théorie des types d'ordre supérieur. Autrement dit, je ne pense pas que les fondements soient vraiment importants ; je n'ai pas peur de me retrouver comme le coyote des dessins animés, qui avance jusqu'à ce qu'il se rende compte qu'il est dans le vide avec le bip-bip 100 mètres sous lui.

Mais revenons-en aux entiers naturels. Crois-je aux entiers naturels ? Cette question n'a de sens que si on la précise en « crois-je en l'existence d'une classe d'objets ayant les propriétés que nous associons usuellements aux entiers naturels » ? Ma réponse est qu'ai un peu de mal à éprouver quoi que ce soit quant à des nombres du style 10^(10^(10^(10^(10^10)))) (oui, j'ai des tendances ultrafinitistes, malgré les efforts de David Madore pour me convaincre que c'est mal), et de toute façon je me fiche de leur existence : ils font partie des règles du jeu. Ce jeu a diverses conséquences plus ou moins tangibles, par exemple produire des algorithmes utiles (transmissions de vidéos de chat sur Internet, guidage de missiles..) et a divers à-côtés plus ou moins amusants (par exemple la possibilité de mettre une note classante avec moyenne à 12, permettant de sélectionner de futurs directeurs de cabinets ministériels). Je ne vois pas ce que la foi vient faire dedans.

Les entiers naturels, on s'en fiche, au fond, qu'ils existent ou pas. Ça marche très bien de faire comme s'ils existaient, alors continuons comme ça.

Il est temps d'aller lire Bernard Cazeneuve sur Twitter.

L'erreur n'a rien d'original

J'ai récemment assisté à un intéressant phénomène de psychologie collective. Il s'agit de mathématiques, mais je pense que ce qui s'est passé est plus général et est compréhensible en faisant abstraction des détails.

Nous avions posé un examen de logique où une question intermédiaire était (pas directement présentée comme cela) : soient a, b, c des réels, à quelle condition est-ce que ax² + bx = 0 a une solution réelle ?

À peu près tout le monde a répondu : quand b² - 4ac ≥ 0, évidemment. Sauf que ceci est inexact, il suffit de prendre a=0, b=0, c=1 pour s'en convaincre. Ce qui ne va pas, c'est que l'on applique une formule en effet bien connue (de mon temps, enseignée en 1e, il me semble), mais dans un contexte incorrect (c'est une formule qui a du sens pour les polynômes du second degré, c'est-à-dire pour a≠0). (Je discuterai en annexe de la pertinence de cet exemple.)

J'ai ensuite posé la question sur Twitter, il me semble bien que tout le monde qui a répondu s'est trompé, après avoir éventuellement cherché si ma question était piège (par exemple, est-ce que a, b, c pouvaient être des matrices, etc.). Pareil avec des collègues.

Nous avons donc un phénomène fort intéressant : face à une question largement dans leurs compétences, un très grand nombre d'individus (d'ailleurs, l'écrasante majorité) fournissent une réponse incorrecte.

Il est clair qu'ici, la raison est que tous ces individus ont suivi, à un moment dans leur vie, un cours sur le trinôme du second degré et ont ressorti la formule toute faite et bien connue en oubliant de vérifier certaines conditions de son application. Effet psychologique : quand un polynôme 2x²+3x+1 est du second degré, et donc, sauf mise en garde explicite, on aura tendance à considérer qu'un polynôme ax²+bx+c est aussi du second degré. Ça a l'air habituel d'un polynôme du second degré, donc c'en est un…

Lors d'examens précédents, nous nous étions rendu compte que des élèves que l'on ne pouvait soupçonner d'avoir copiés les uns sur les autres (physiquement éloignés lors de l'examen) rendaient la même réponse fausse. Cela veut dire qu'il y a des erreurs « naturelles », encore que je n'aime pas ce terme car il s'agit ici clairement de culture (des cours, des sujets abordés, etc. qui donnent certaines directions de pensée).

Ceci devrait nous inciter à la prudence à l'égard de deux lieux communs.

Le premier est que lorsque l'on fait développer deux logiciels censés répondre à la même fonction critique (par exemple : piloter un avion) par deux équipes différentes et sans interaction, on va avoir une faible probabilité que ces deux logiciels dysfonctionnent en même temps : ce serait en effet un extraordinaire hasard que deux équipes fassent une erreur au même endroit (par exemple, mal gérer le même événement exceptionnel). Sauf que… ce raisonnement « probabiliste » fait l'hypothèse implicite que les deux événements sont indépendants, ce qui n'est pas le cas, au vu des exemples précédents !

Le second est que demander leur avis à un très grand nombre de personnes égalise les erreurs suivant la loi des grands nombres (ou, comme disait François Bourdoncle dans une réunion publique à laquelle j'assistais, le théorème central limite). Autrement dit, l'hypothèse implicite est que chacun voit la vérité entachée d'un bruit symétrique, et qu'avec le grand nombre les erreurs dans un sens ou dans l'autre s'annulent largement. Ce n'est clairement pas le cas quand les erreurs viennent d'une cause commune, qu'elle soit culturelle ou une hypothétique tendance humaine « naturelle » à raisonner de telle ou telle façon.

Annexe : On m'a fait remarquer qu'en quelque sorte c'est chercher la petite bête, le contre-exemple artificiel, que ça n'a pas de « sens physique » que de se poser pareille question (a=0 physiquement c'est une surface infiniment fine, on ne peut pas arriver pile dessus).

Il s'agissait d'un examen de logique, pas de calcul numérique appliqué à la physique. Par ailleurs, le type de raisonnement « les contre-exemples sont de mesure nulle » est très dangereux en algorithme. Quelques exemples.

n+1 points dans un espace de dimension n sont presque toujours en position générale (ils ne sont pas dans le même hyperplan). Sauf qu'en pratique, quand on lance un algorithme géométrique, on le lance souvent sur des objets provenant d'humains, après calcul ou non, et non générés aléatoirement. Le cas qui n'arrive presque jamais a donc tendance à arriver assez souvent. S'ensuivent de vaseuses techniques de perturbations des points.

L'algorithme du tri rapide (le plus simple, sans aléa) a une complexité de calcul en moyenne très intéressante. Sauf que… si la liste est déjà quasi triée (ou quasi dans l'ordre inverse), il est très mauvais. Manque de chance, c'est un cas assez courant dans les utilisations réelles.

Si on tire au sort un problème 3SAT avec bien plus (resp. bien moins) de clauses que de variables, on a « presque toujours » (enfin, à un pouième près) un problème insatisfiable (resp. satisfiable) (on peut quantifier le « bien plus » et le « bien moins »). Très mauvais guide sur les cas qu'on veut vraiment résoudre.

J'ai passé pas mal d'énergie et de temps sur une histoire de problème géométrique dégénéré, le cas qui n'arrive « presque jamais ».

On peut donc raisonnablement dire que, sauf plus ample informé, s'il y a une situation gênante qui peut arriver en entrée d'un algorithme (par exemple d'une procédure de simplification en calcul formel), elle va se présenter un jour.

Témoin cette anecdote arrivée la semaine précédente : j'ai un problème non linéaire, un collègue me dit « facile, je n'ai qu'à le rentrer dans l'outil développé chez mes copains », il me répond « il n'y a pas de solution », je lui en exhibe une, et in fine un bug est trouvé dans une procédure de simplification.

Le cas exceptionnel va arriver et l'avion va tomber dans l'eau.

mardi, septembre 30 2014

Les données et le plafond de verre

Il circule en ce moment une infographie présentant la répartition hommes/femmes aux différents niveaux des carrières d'enseignement supérieur et de recherche. Elle montre que plus le niveau de poste est élevé, plus la proportion de femmes est faible. Le commentaire qui accompagne cet article conclut à l'existence d'un « plafond de verre » dans l'enseignement supérieur et la recherche.

Mon propos n'est évidemment pas de nier l'existence d'un « plafond de verre » dans la recherche scientifique. Je pense par exemple que certains mécanismes d'évaluation pénalisent les femmes avec enfants. Mon propos est de faire remarquer que cette infographie ne démontre pas ce qu'on dit qu'elle démontre (autrement dit : je ne dis pas que la conclusion, à savoir l'existence du plafond de verre, est fausse, mais que le raisonnement qui part de ces données chiffrées pour arriver à cette existence, est bancal). Voyons pourquoi.

Suivant les progressions de carrières normales, les personnes aux niveaux les plus élevés (professeurs des universités et directeurs de recherche) sont plutôt âgées. C'est d'ailleurs en partie quasi forcé par des seuils administratifs : dans de nombreux cas, il faut un certain nombre d'années dans un grade pour pouvoir se présenter au grade supérieur. Par conséquence, parmi les directeurs de recherche et professeurs de classe exceptionnelle, il y en aura largement plus au bord de la retraite que de moins de 45 ans.

Cela veut dire que les gens susceptibles d'occuper les échelons les plus élevés sont nés dans les années 40, 50, 60, et ont donc été éduqués à une époque où l'on considérait largement que les femmes c'est fait pour se marier et qu'en tout cas la recherche scientifique est un métier d'hommes. Il est donc probable qu'il y ait eu une très forte majorité d'hommes dans les recrutements initiaux. La présence d'une forte majorité d'homme aux échelons supérieurs n'est donc guère significative pour le propos de la démonstration, pas plus que la plus forte proportion d'hommes aux échelons supérieurs qu'aux échelons inférieurs.

Ce qui en revanche serait très significatif et très intéressant, ce serait d'étudier diverses cohortes de chercheurs, recrutés à diverses époques (par exemple : tous les chargés de recherche de deuxième classe recrutés au CNRS en 2002), et d'étudier leur progression de carrière et notamment la différence entre celles des hommes et celles des femmes. Si cela se révélait trop difficile, on pourrait également considérer des cohortes d'année de naissance. Peut-être que, en raison des différences de vitesse de carrière, il faudrait diviser en disciplines ou en groupes de disciplines. C'est tellement vrai que c'est subtil de mener de telles études qu'on paye des gens pour cela (les sociologues). Et donc, s'il faut démontrer l'existence d'un tel plafond, on préférera une étude sociologique sérieuse à un petit graphe à qui l'on fait dire ce qu'il ne dit pas.

En attendant, on devrait un peu se méfier d'agrégats de chiffres qui mélangent celles et ceux qui ont étudié avec des cartes perforées avec celles et ceux qui ont étudié avec un iPhone.

dimanche, septembre 28 2014

My CAV 2014 tutorial

Last summer, I was invited tutorial speaker at the annual Computer Aided Verification conference, which took place as part of the Vienna Summer of Logic. My tutorial (3 hours) on analysis and invariants was filmed and the video is now online. The slides are also online.

Comment on dégoûte les gens des maths

C'est un cliché : quand on dit qu'on est mathématicien, les gens vous disent qu'eux, à l'école, n'ont pas aimé les maths (vous me direz que je ne suis pas mathématicien à proprement parler, mais j'ai parfois le choix entre passer pour un réparateur de PC ou un prof de maths, alors…). Certes, d'autres disciplines « obligatoires » provoquent également agacement voire traumatismes, mais il me semble qu'aucune ne provoque un rejet comme celui des mathématiques.

Quand on évoque les choix d'enseignements et les difficultés des étudiants, disons entre normaliens agrégés de maths qui exercent dans le supérieur, on se retrouve à se poser des questions comme « faut-il enseigner l'intégrale de Riemann ou celle de Lebesgue », « est-ce que ça a du sens de parler de fonction dérivable avant de parler de fonction continue », etc. Alors que le fond de la question n'est pas là : il est dans l'enseignement primaire et secondaire.

Le mieux n'était-il pas de demander aux gens ?

Je demande donc à mes lecteurs, s'ils ont été dégoûtés des mathématiques, de nous expliquer pourquoi.

Nous tenterons ensuite une synthèse.

Quelques réactions récoltées sur Twitter (que j'ai dû éditer — il s'agissait de réactions très « orales » dans des discussions) :

Ma collègue Claire Placial, maîtresse de conférences en littérature comparée à l’université de Lorraine, ancienne élève de l'École normale supérieure (en lettres, évidemment) (j'ai édité pour plus de lisibilité) :

« Je ne comprenais rien. J'étais comme les gosses qui ne comprennent rien en grammaire, même si on leur explique N fois. Plus précisément, c'est à partir du lycée que j'ai décroché : avant, je m'en fichais un peu, pas de haine spéciale pour les maths, j'étais forte en calcul. Je crois que c'est au moment où ça a commencé à modéliser avec les fonctions et les vecteurs que je suis tombée dans le « trou noir » : trop de raisonnement abstrait ! Le problème n'est cependant pas l'abstraction en soi : je n'ai aucune difficulté avec l'abstraction linguistique. Je ne comprenais pas le passage du théorème à l'exercice, j'avais des difficultés en seconde.

J'ai essayé de faire le cours de maths pour littéraires à Ulm et, de nouveau, les mêmes difficultés : l'explication du théorème est limpide, mais la démonstration va dix fois trop vite. Toute la partie logique des théorèmes de ce cours, mais au moment où il fallait écrire avec des signes mathématiques, je n'arrivais pas à faire le lien. C'est la même difficulté que, plus jeune, j'éprouvais avec les vecteurs et les fonctions.

Je crois que j'aurais préféré des cours de maths où l'on aurait stimulé l'aspect intellectuel de la chose, plus que la mécanique. Pour moi (qui ai arrêté les maths en fin de seconde), les maths c'étaient les exercicesvoilà, les exercices, on a une bonne note quand on a bien fait les exercices ! Je crois que j'aurais bien aimé qu'on me dise à quoi servent les exercices, pas dans le sens métier/pratique, mais… ... pourquoi c'est important, pour l'apprentissage du machin, de faire l'opération en question. D'ailleurs comme prof j'essaye toujours de dire pourquoi je fais le cours que je fais (apprends de ton trauma !) Même chose en français. D'où l'importance de mettre de la réflexivité dans la formation des profs… »

Mon amie Adrienne Charmet :

« Vaste question ! Je n'aimais pas les démonstrations où l'important était le chemin et pas le résultat, je crois. Je me souviens que je me sentais enfermée dans les normes — loin de la liberté d'écriture que j'avais en littérature ou histoire. J'étais jeune et rebelle, il faut croire ! »

vendredi, septembre 26 2014

Mon supposé mépris des sciences humaines

On m'a parfois accusé de mépriser les sciences humaines et sociales, et plus particulièrement la philosophie. Je désirerais ici clarifier ce point : je ne vois pas en quelle occasion j'aurais fait des remarques méprisantes envers ces disciplines ; en revanche, j'ai parfois émis des critiques quant à certaines pratiques. Explicitons.

J'ai plusieurs fois critiqué les pratiques mandarinales et anti-sociales de certains universitaires des sciences humaines et sociales, mais pas seulement. Par exemple, j'ai critiqué un certain directeur de laboratoire « classe exceptionnelle » qui s'étonnait qu'il fallût payer des doctorants pour que ceux-ci pussent se permettre de passer la journée à travailler dans son laboratoire (ne se rendait-il pas compte que vivre à Paris est cher ?). Mon collègue sociologue Baptiste Coulmont lui aussi signale certains comportements problématiques dans sa discipline, et personne ne l'accuse de mépriser la sociologie.

J'ai parfois critiqué certains enseignants ou universitaires en philosophie qui abordent à titre professionnel et dans le cadre de l'expertise que laisse supposer leur statut des questions qu'ils ne maîtrisent pas. J'estime notamment qu'il y a une faute méthodologique à vouloir aborder des sujets avancés comme la mécanique quantique ou les théorèmes d'incomplétude de Gödel avant d'avoir une certaine familiarité avec des sujets plus basiques comme la mécanique classique ou la logique mathématique élémentaire. Il me semble qu'il convient, lorsque l'on excipe de ses titres pour exercer un magistère, de ne pas outrepasser ses compétences. J'ajouterai que j'ai également publiquement critiqué certains raisonnements osés de Roger Penrose, sans que l'on m'accuse de mépriser la physique mathématique.

Toujours sur ce sujet des limites des compétences, j'ai critiqué des professeurs de droit qui s'improvisaient pédopsychologues tout en excipant de leurs titres.

J'ai parfois critiqué la propension de certaines personnes formées aux lettres, aux sciences humaines et sociales, à surestimer la portée réelle de leurs connaissances, leur importance ou leur reconnaissance sociale. Ainsi, lorsqu'on m'a dit, en somme, que « tout le monde » connaît Roland Barthes, j'ai fait remarquer que lorsque j'ai demandé dans mon entourage professionnel (chercheurs et enseignants-chercheurs), personne ne savait précisément de qui il s'agissait…

Je me suis parfois interrogé sur la pertinence de certains enseignements que j'ai reçus, par exemple le cours de philosophie de terminale. Il me semble légitime de questionner l'imposition d'enseignements obligatoires dans le cadre d'emplois du temps chargés… et je ne vois en cela rien de méprisant (par exemple, je ne méprise certainement pas le traitement du signal, mais je ne comprendrais pas qu'on impose un cours de traitement du signal dans toutes les classes de terminale).

Enfin, je me suis permis — crime indigne, sans doute — de rédiger un billet sans prétention sur la pratique scientifique. Je dis « sans prétention » car je ne prétendais nullement faire œuvre originale de philosophie ou de sociologie des sciences : il s'agissait d'un billet de blog informel relatant un ressenti, et non d'un cours, d'un article ou d'une thèse universitaire sur le sujet. Ce billet a été décrit comme le signe d'un mépris envers la philosophie et la sociologie des sciences. C'est un peu comme si, lorsque quelqu'un parlait informellement des nombres entiers, je lui disais de se taire au motif qu'il n'est pas agrégé de mathématiques.

Mais peut-être me trompé-je, et ai-je involontairement eu des marques de mépris envers la philosophie, la sociologie, l'histoire, la littérature latine ou que sais-je encore. Je saurai donc gré à mes lecteurs de bien vouloir me signaler d'éventuelles remarques déplacées de ma part.

jeudi, septembre 25 2014

Une question sur les modèles chez Alain Badiou

Comme le savent sans doute déjà certains de mes lecteurs, j'enseigne parfois la logique. Je trouve la logique du premier ordre difficile à enseigner non pas tant techniquement que conceptuellement : j'entends par là que la difficulté n'est pas dans la connaissance de théorèmes compliqués, d'astuces de démonstration ou de calcul, mais dans la compréhension des définitions que l'on utilise. Expérimentalement, dans un cours où figurent logique, calculabilité, et complexité, c'est la partie qui suscite le plus d'incompréhension.

J'ai donc voulu chercher comment les autres expliquaient les bases de ce sujet. J'ai bien entendu des ouvrages de logique mathématique (par exemple le Cori-Lascar, dont je déteste malheureusement la typographie) mais je voulais voir s'il y avait une façon différente d'exposer, peut-être moins « technique ». La logique étant enseignée, selon des divisions quelque peu administratives et artificielles, à la fois en informatique, mathématique et philosophie, il m'a paru intéressant de regarder un cours de logique de philosophe. Par ailleurs, bien conscient de mes lacunes en épistémologie, j'ai voulu améliorer mes connaissance sur ce sujet.

J'ai donc emprunté le Concept de Modèle, par Alain Badiou (un petit ouvrage publié en 1968 chez Maspéro dans la série « théorie — cours de philosophie pour scientifiques », collection dirigée par Louis Althusser, mais il y a une réédition récente).

Alain Badiou oppose dans cet ouvrage deux sens scientifiques du mot « modèle » (j'espère ne pas faire de contre-sens en résumant son propos avec mes propres mots et exemples) :

  1. D'une part, en sciences expérimentales, le modèle est l'appareil mathématique qui est censé refléter la réalité expérimentale : par exemple, pour rendre compte des phénomènes électromagnétiques, on parle des champs électrique et magnétique, reliés par les équations de Maxwell… ou, plus simplement lorsqu'il s'agit d'un circuit électrique, de tensions et intensités.

  2. D'autre part, le mot « modèle » désigne un concept mathématique précis en logique du premier ordre, qui donne une sémantique ou interprétationaux symboles (Badiou emploie plutôt le mot « marques ») des énoncés mathématiques : par exemple, qui associe au + des formules mathématiques l'opération d'addition usuelle sur les entiers.

Badiou développe plutôt ce second aspect. J'aime bien la façon dont il compare un travail très technique comme la construction d'un modèle « alternatif » de la théorie des ensembles avec une construction plus concrète : la construction d'un modèle de la géométrie riemannienne au sein de la géométrie euclidienne, tout simplement en prenant la sphère comme « plan » et ses grands cercles comme « droites ». En revanche, le vocabulaire employé est parfois inhabituel (peut-être est-ce seulement une question d'époque), et certaines explications me semblent un peu obscures.

Badiou relève également une limitation de la théorie des modèles, que certains de mes étudiants relèvent d'ailleurs d'eux-mêmes : construire un modèle d'une logique dans la mathématique « naturelle », « informelle », c'est le construire dans une méta-logique qui pourrait fort bien être elle même incohérente, autrement dit repousser d'un cran le problème de la cohérence sans l'épuiser.

En annexe, Badiou donne une démonstration du théorème de complétude de la logique du premier ordre (démontré par Gödel dans sa thèse de doctorat) par les témoins de Henkin (personnellement j'ai plutôt tendance à donner la construction d'un modèle de Herbrand, mais les goûts et les couleurs…).

Il y a en revanche quelque chose que je n'ai pas compris, c'est l'opposition maintes fois évoquée dans l'ouvrage entre l'« épistémologie bourgeoise » et une supposée épistémologie prolétarienne ou marxiste, basée sur le « matérialisme dialectique ». J'apprécierais donc sur ce sujet l'éclairage de spécialistes de philosophie, quand bien même l'ouvrage évoqué se voulait un cours d'initiation à la philosophie pour scientifiques.

Je conçois bien que toute modélisation mathématique suppose un choix de ce qui est important (et reflété dans le modèle) et de ce qui est négligeable ou hors champ. Pour prendre un exemple tiré de l'informatique, la modélisation des calculs informatiques par sémantique dénotationnelle fait disparaître le temps nécessaire au calcul, de sorte que deux programmes qui calculent la même fonction, mais l'un considérablement plus longtemps que l'autre, sont considérés comme équivalents par cette sémantique. On comprend bien que, s'agissant de tout problème se rapportant à l'humanité ou à la société, le choix de ce qu'il est important ou non d'observer et d'intégrer dans le modèle est politique, et que ce choix, intériorisé dans des modèles qui prétendent à une objectivité scientifique, relève bien d'une idéologie qui dépend d'un temps, d'un lieu, d'une histoire.

Il s'agit cependant ici d'une reconstruction personnelle de ce que Badiou aurait bien pu vouloir dire. Il me semble fort probable que, s'agissant d'un ouvrage cité et réédité d'un philosophe français reconnu, il devrait y avoir quelques lecteurs capables de m'éclairer !

Si je pense avoir une certaine idée de la lutte des classes, j'avoue notamment une certaine incompréhension du « matérialisme dialectique », bien que j'aie vu le terme dans l'introduction d'un ouvrage chinois de mathématiques. Là encore, toute aide serait appréciable, sachant que l'article Wikipédia ne m'aide guère.

mercredi, septembre 3 2014

La photo volée (mais pas un hommage à Poe)

Au cas où vous ne seriez pas au courant, on a récemment appris qu'un ou plusieurs individus avaient publié des photographies dénudées d'actrices (dont Jennifer Lawrence, qui jouait le rôle-star dans les Hunger Games) et d'autres femmes, photographies que celles-ci pensaient privées et ne destinaient pas à la publication. Ces photographies ont ensuite été largement diffusées. Il est difficile de faire la différence entre les faits établis et les supputations ou extrapolations des uns et des autres, aussi je me bornerai à mentionner l'hypothèse la mieux étayée, à savoir que

  • ces photographies ont été prises à l'aide de smartphones de marque Apple, configurés de façon à sauvegarder leurs données sur les serveurs d'Apple (service iCloud)

  • elles étaient stockées dans un espace privé ; il ne s'agirait donc pas d'une publication incontrôlée et cet épisode est donc à distinguer du cas de ces internautes qui, pensant partager une photographie avec leurs amis, la partagent en fait avec le monde entier, y compris leur employeur ; une des victimes expliquait ainsi qu'il s'agissait de photographies faites avec son mari et destinées à leur usage personnel

  • ces serveurs iCloud ont été attaqués, apparemment en profitant d'une faille de sécurité permettant pour accéder au compte d'un utilisateur d'essayer successivement et dans un très court laps de temps une grande quantité de mots de passe (les systèmes bien conçus dans ce cas verrouillent temporairement le compte concerné, ou autre contre-mesure adaptée).

Avant d'avancer dans la discussion, je voudrais exprimer ma sympathie aux victimes, même si la probabilité qu'elles me lisent est presque nulle ; non seulement ma sympathie par rapport aux délits dont elles ont été victimes, mais aussi par rapport à la réaction des médias, dont j'avoue ne plus m'étonner de la médiocrité. J'ai ainsi vu quelques articles où l'on accusait les victimes au pire d'exhibitionnisme, au minimum d'imprudence ou négligence.

Il est en fait assez courant de blâmer la victime d'un délit ou crime pour celui-ci. Ainsi, une femme agressée sexuellement se fera accuser d'être trop court vêtue ou d'avoir commis l'imprudence de rentrer seule le soir ou d'être allée dans une soirée. Sans aller jusqu'à des actes aussi graves, je relève que l'Université de Grenoble, qui héberge mon laboratoire, placarde des affiches expliquant qu'une voiture n'est pas un coffre-fort et qu'il ne faut pas laisser d'objets de valeur dans un véhicule garé sur son campus. Divers guides urbains recommandent de ne pas « tenter les pickpockets ». On inverse dans une certaine mesure la charge de la responsabilité : l'agression ou l'effraction sont décrits comme s'il s'agissait de phénomènes naturels dont il convient de se prémunir, comme on conseillerait de sortir avec un parapluie en cas de météo incertaine. La femme qui « tente » les violeurs, l'automobiliste ou le passant qui « tentent » les voleurs, sont considérés comme au moins partiellement responsables du fait de leur manque de précautions. Toujours, des petits malins diront que la victime « n'avait qu'à... » ou « n'avait qu'à pas... ».

La vivacité avec laquelle des quidams sans expertise en sécurité informatique se sont mis à parler des dangers de la publication sur le Web, à donner des conseils quant à l'utilisation des objets connectés, n'est probablement pas mieux illustrée que par l'article du psychiatre Serge Tisseron. M. Tisseron (ou peut-être le journaliste chargé de réécrire sa pensée) dit notamment :

  1. Qu'il ne faut rien mettre de sensible sur un objet connecté à Internet.

  2. Que quand les gens auront appris à programmer, ils pourront chiffrer leurs fichiers et ne plus avoir de problèmes.

Ces recommandations provoqueraient chez moi une certaine hilarité si elles figuraient dans la copie d'un étudiant ; mais j'ai peine à sourire quand elles sont commises par une personne que les médias interrogent en quelque sorte comme un expert.

Commençons tout d'abord par le point 1. Cette recommandation n'est pas absurde dans l'absolu ; c'est en fait ce qui est mis en œuvre dans certaines entreprises, où il existe deux réseaux informatiques séparés pour d'une part le courrier électronique, la bureautique, l'administratif, d'autre part pour l’ingénierie et les secrets industriels. Quiconque a vu cette séparation à l'œuvre sait que celle-ci est très difficile à mettre en œuvre : non seulement il faut deux fois plus de matériel, mais il faut bien à un moment échanger des données entre les réseaux, d'où diverses contorsions (je me rappelle ainsi d'une grande entreprise où la procédure était de graver un CD à chaque passage de données).

Par ailleurs, cette recommandation est impossible à appliquer pour nombre d'usages. Prenons par exemple la banque et les commandes en ligne : il faut bien à un moment taper un numéro de compte, un numéro de carte bancaire, un code d'accès… sur un système connecté à Internet. Ces informations sont sensibles, puisqu'elles peuvent éventuellement permettre des détournements de fonds. Bref, appliquer le point 1 revient à appliquer dans la vie d'un simple particulier des précautions qui sont difficiles à appliquer chez des professionnels...

Passons au point 2. Là, je ne vois tout simplement pas le rapport entre la programmation, le chiffrement de fichiers et le problème qui nous occupe.

Savoir programmer ne vous transforme pas en expert en sécurité informatique. La sécurité informatique est un sujet très subtil, notamment parce qu'il faut se méfier de tout ; autrement dit, quand on considère une donnée ou un fait, il faut toujours se demander pour quelles raisons nous les considérons comme authentiques. Chaque gaffe, chaque oubli peut potentiellement être exploité. Il n'est en revanche pas nécessaire de savoir programmer pour utiliser un logiciel de chiffrement, même si bien sûr la programmation donne une meilleure compréhension de l'informatique en général.

Par ailleurs, nous parlons ici de dispositifs informatisés grand public sur lesquels l'utilisateur final n'a qu'une information parcellaire et très peu de possibilité d'intervention. Seul Apple sait précisément comment l'iPhone et l'iCloud sécurisent les données des utilisateurs, et je ne pense pas qu'il y ait de moyen de forcer le téléphone à chiffrer toute photographie.

En outre, l'utilisation de mécanismes de chiffrement ne garantit pas la sécurité : par exemple, s'il existe pour un intrus un moyen de savoir ce qui est tapé au clavier, celui-ci peut par exemple obtenir le mot de passe de déchiffrement des fichiers « sécurisés ». Certaines fiches « techniques » destinées aux utilisateurs finaux font sourire : que m'importe, au fond, que mes données soient chiffrées pendant la transmission avec de l'AES 128 bits, ou 256 bits ? La théorie avancée pour cette « fuite » de photographies ne met en jeu aucune prouesse d'attaque contre les primitives cryptographiques, aucune percée mathématique mystérieuse par la NSA… juste une négligence de conception. La sécurité informatique, c'est un problème de recherche de « maillon faible », et la cryptographie proprement dite n'est presque jamais celui-ci.

Enfin, même si l'utilisateur savait programmer et avait accès à l'ensemble de la documentation technique de son dispositif connecté, il ne s'ensuivrait pas qu'il pourrait s'assurer de la sécurité de ses données. L'exemple des trous de sécurité détectés au fil du temps dans OpenSSL est éclairant : voici un logiciel critique, déployé sur quantité de serveurs et de dispositifs clients (ordinateurs personnels et sans doute téléphones), dont le code source (le « texte » du programme) est publiquement disponible, et où l'on découvre année après année des « trous », certains proprement affolants (par exemple le bug de génération des clefs d'OpenSSL sous Debian et dérivés, ou encore la faille Heartbleed).

Ces « yaka » sur la programmation et le chiffrement seraient proprement intenables si on les transposait à d'autres domaines. Si une personne se fait cambrioler suite à une défaillance subtile d'une serrure décrite comme « de sécurité », on ne lui dit pas qu'elle « n'avait qu'à » ne pas avoir d'objets personnels chez elle mais que la situation sera meilleure quand tout le monde sera expert en serrurerie.

Bref, je me demande honnêtement pourquoi on demande son avis sur ces questions au psychanalyste Serge Tisseron et non à un spécialiste, comme par exemple ma collègue Véronique Cortier. De fait, il est remarquable que les médias n'aient pas fait appel aux experts en sécurité informatique du monde universitaire (j'inclus ici les écoles, le CNRS, l'INRIA...) : le mieux que l'on ait vu est un représentant de la Quadrature du Net. Il est vrai que les universitaires auraient probablement dit qu'en l'absence d'informations techniques précises, il est périlleux de commenter…

J'aimerais conclure par une analogie. Si un quidam se contorsionnait pour arriver jusqu'à ma fenêtre et glissait un objectif en dessous d'un volet mal fermé, on estimerait sans doute que je ne suis pas à blâmer pour ne pas m'être assuré d'une fermeture jusqu'au dernier centimètre. Ici, un ou plusieurs individus se sont contorsionnés pour obtenir des clichés privés ; ce n'est pas différent. Le fait que les victimes soient des personnes publiques n'y fait rien.

Épistémologie de la satisfiabilité propositionnelle

Lors du Vienna Summer of Logic a eu lieu une discussion au sujet de la théorie et de la pratique du test de satisfiabilité propositionnelle (SAT-solving). Au delà de ses aspects purement technique, cette discussion soulevait d'intéressantes questions épistémologiques.

La satisfiabilité propositionnelle est un problème dont la résolution efficace est de première importance pour l'industrie électronique. En effet, les problèmes de vérification de la bonne conception des circuits intégrés numériques peuvent souvent être ramenés à un problème de satisfiabilité propositionnelle. Il y a donc une motivation forte à développer des approches efficaces en pratique.

Par ailleurs, la satisfiabilité propositionnelle est un problème difficile, au sens que les programmes informatiques qui le résolvent, même s'ils sont rapides dans de nombreux cas, ont toujours une catégorie de cas où ils sont intolérablement lents. Plus précisément, le temps de calcul des programmes, dans le pire cas, croît exponentiellement avec la taille du problème à résoudre : quand on accroît d'une unité la taille du problème, on double le temps de calcul.

Dès les années 1950, on a distingué deux sortes de problèmes informatiques : ceux pour lesquels on trouvait des méthodes (on dit : des algorithmes) raisonnablement rapides, et ceux qui, dans le pire cas, nécessitent une exploration exhaustive d'un espace de recherche de taille exponentielle et donc un temps de calcul exponentiel. Ainsi, pour trier une table de n nombres, on trouve sans peine un algorithme dont le temps de calcul est quadratique, c'est-à-dire qu'il quadruple quand n est doublé : il suffit de chercher le nombre le plus petit dans la table, le mettre en tête, et trier le reste du tableau. Avec un peu plus d'astuce, on peut trouver des méthodes de complexité quasi linéaire, qui se contentent de faire un peu plus que doubler le temps de calcul quand le nombre de données à trier double (de fait, de telles méthodes sont à l'œuvre dans tous les systèmes qui ont à trier des données). En revanche, pour le test de satisfiabilité propositionnelle, on se retrouvait toujours dans le pire cas à explorer un nombre exponentiel de combinaisons. Ces caractéristiques ne dépendent pas du matériel utilisé pour calculer, raison pour laquelle ce qui a été constaté dans les années 1950 reste d'actualité alors que la technologie du calcul a fait des progrès considérables.

Dans les années 1970, on a développé la théorie de la complexité algorithmique. Cette théorie distingue notamment les problèmes de complexité polynomiale (il existe une définition précise de ce terme, que je ne donnerai pas ici : disons simplement que les problèmes quasi-linéaires et quadratiques sont polynomiaux) des autres. Parmi ces autres, on distingue ceux qui reviennent à explorer un espace de taille exponentielle (ou du moins exponentielle de polynôme, mais ne compliquons pas) à la recherche d'une solution (là encore, une définition mathématique précise existe). Les premiers forment la classe P, les seconds la classe NP, la première étant incluse dans la seconde. La question de savoir s'il P et NP sont distinctes, ou en termes intuitifs (et un peu trompeurs, comme nous allons le voir) s'il existe des problèmes qu'on ne peut résoudre substantiellement mieux que par une exploration exhaustive d'un nombre exponentiel de combinaisons, est une des grandes questions des mathématiques du tournant du millénaire : bien que l'on conjecture que ces classes sont distinctes et notamment que le test de satisfiabilité booléenne soit un de ces problèmes, on n'en a pas la preuve.

Un aspect important de la théorie de la complexité est qu'elle considère les problèmes que l'on compte résoudre et non telle ou telle méthode de résolution. Autrement dit, si un problème est de haute complexité, c'est une caractéristique intrinsèque et non due à la faiblesse des algorithmes découverts jusqu'à présent. Alors qu'en médecine on peut espérer trouver un moyen de soigner une maladie jusque là incurable, une vérité mathématique reste vraie…

La théorie de la complexité souffre toutefois de faiblesses. Nous avons déjà évoqué le fait que certaines grandes conjectures de cette théorie (par exemple, P≠NP) restent non démontrées ; parlons maintenant du péril qu'il y a à relier une notion de complexité théorique avec une notion pratique, comme la difficulté effective de résolution d'un problème.

Il est courant que les chercheurs en informatique démontrent qu'un problème est « NP-complet » (un des problèmes « les plus difficiles » de la classe NP, avec une définition mathématique précise) ; ils en déduisent que, sous réserve de la conjecture P≠NP, il n'existe pas pour ce problème d'algorithme de complexité polynomial et concluent souvent à l'absence d'algorithme efficace. Or, pareille conclusion, identifiant faisabilité pratique et existence d'un algorithme polynomial, est franchement discutable. Un algorithme de complexité polynomiale de degré élevé (par exemple, où le temps de résolution du problème serait multiplié par un milliard à chaque fois que la taille du problème du problème d'entrée doublerait) serait inutilisable ; en revanche, un algorithme de complexité exponentielle dans le pire cas peut être utilisable si ce pire cas n'arrive pas en pratique (ceci s'entend : hors exemples artificiels conçus spécialement pour exhiber ce pire cas).

Autrement dit, nous avons une théorie parfaitement correcte, mais dont il est délicat de dériver des indications sur ce qu'il convient ou non de faire. Ainsi, on résout quotidiennement dans l'industrie, notamment dans la conception et vérification de circuits intégrés, des problèmes NP-complets (SAT, « voyageur de commerce »...), parce qu'on a des méthodes qui fonctionnent en pratique sur les cas qui nous intéressent ; il aurait été dommage de s'en tenir à remarquer que le problème est NP-complet et abandonner tout espoir. Un autre exemple : la sécurité informatique : on peut argumenter qu'un système de chiffrement est sûr parce que le casser implique de résoudre un problème NP-complet, mais cet argument est-il valable alors que ce qui est important en sécurité n'est pas que le système soit difficile à casser dans le pire cas pour l'adversaire, c'est-à-dire dans le meilleur cas pour nous, mais plutôt qu'il soit difficile à casser dans les cas favorables pour l'adversaire ?

Puisqu'il est périlleux de ne se référer qu'au cas le pire, on a voulu étudier le « cas typique » et pour cela considérer le « cas moyen », au sens des probabilités. Ceci présuppose une distribution de probabilité, autrement dit d'une répartition des cas de figure que l'on étudie et de leur probabilités respectives ; on espère que les cas les pires sont très peu probables. Malheureusement, sur le problème SAT, les distributions de probabilité les plus « simples » et fortement étudiées ne sont absolument pas représentatives des cas industriels réels ! Un autre exemple : l'algorithme classique du « tri rapide » a une fort bonne complexité moyenne, sauf que son cas le pire est atteint dans un cas « rare » au sens des probabilités, mais assez courant en pratique : quand une partie de données sont déjà triées !

Peut-être faut-il (temporairement ?) abandonner l'espoir de résultats théoriques forts et s'en tenir à une évaluation empirique, où l'on essaye les différentes approches sur des « cas représentatifs » ? Hélas, se pose alors la question de ce qui est ou non représentatif, et des conséquences du choix d'une bibliothèque de « cas représentatifs » sur le domaine de recherche.

Qu'est-ce qu'un « cas représentatif » ? On distingue habituellement :

  1. Des exemples artificiels générés pour illustrer telle ou telle difficulté faisant souffrir telle ou telle catégorie d'algorithmes. (Par exemple, sur SAT, on génère des « problèmes de pigeons ».)

  2. Des exemples rédigés à la main pour illustrer telle ou telle difficulté faisant souffrir telle ou telle catégorie d'algorithmes et, souvent, pour illustrer la supériorité de telle ou telle approche (il circule ainsi dans la littérature scientifique, parfois à mon grand étonnement,des exemples « David », « Monniaux » ou « Halbwachs », extraits d'articles ou de questions posées en ligne par moi-même ou le directeur de mon laboratoire).

  3. Des exemples industriels.

Première difficulté : les catégories 1 et 2 ne sont pas forcément représentatives de vrais problèmes se posant industriellement. Il y a donc le risque de dépenser du temps et de l'énergie en recherches visant à améliorer les performances sur des cas artificiels et sans véritable intérêt.

Deuxième difficulté : les exemples industriels ne représentent pas forcément tout ce que l'on pourrait vouloir résoudre. Pour convertir un problème industriel concret en un problème prêt à être résolu par un outil SAT ou un outil d'optimisation, il faut un certain effort ; typiquement il faut développer un logiciel de conversion, voire une interface utilisateur, peut-être développer une base de données. Pour prendre un exemple de la vie courante, dans un GPS de voiture, l'algorithme de calcul de plus court chemin n'est qu'une toute petite partie du dispositif, qui nécessite une énorme base de donnée, un dispositif de visualisation, un dispositif pour rentrer la demande de l'utilisateur… Il faut donc investir avant même de s'attacher à la résolution proprement dite des « problèmes industriels » ; or un industriel sera réticent à cet investissement s'il n'est pas sûr que les méthodes de résolution derrière pourront suivre. Ceci biaise la base des exemples industriels dans le sens de ce que l'on sait déjà résoudre, ou du moins dans le sens d'exemples ressemblant à ceux que l'on sait déjà résoudre (par exemple, que l'on peut obtenir en convertissant des exemples plus gros que ceux que l'on sait gérer actuellement).

Enfin, l'évaluation des outils par des compétitions sur les bases d'exemples standardisés, si elle favorise une certaine émulation, peut inciter au conformisme, à des améliorations incrémentales qui occupent les chercheurs et font publier des articles, mais ne changent rien de bien profond.

En résumé, nous avons

  • une théorie très ardue, mais qui déjà a du mal à conclure à l'intérieur d'elle-même, et dont il est parfois délicat de tirer des conséquences pratiques

  • une évaluation expérimentale délicate et biaisée.

Je me demande ce qu'il en est dans les autres domaines de recherche. Le premier exemple qui me vient à l'esprit est l'économie : on y trouve d'admirables modèles théoriques (par exemple, les équilibres de Nash) sur lesquels on peut rédiger quantité d'articles, mais pour lesquels se pose le problème de la représentativité par rapport aux situations réelles — problème d'autant plus grave si l'on prétend tirer du modèle des recommandations politiques.

mardi, août 12 2014

Le pistolet-laser thermomètre

RFI rapporte que, pour dépister le virus Ebola, on mesure la température des voyageurs dans les aéroports à l'aide d'un « pistolet laser »:

Un pistolet laser sur la tête pour mesurer la température, une camera thermique pour afficher la chaleur des corps sur un écran plat, c’est le nouveau rituel pour les passagers dès l’entrée de l’aéroport Gbessia de Conakry. Ce dispositif de sécurité sert à identifier les passagers qui ont une fièvre au-delà de 38°.

Il s'agit, semble-t-il, d'une mesure par infrarouges thermiques, qui ne met pas en jeu de laser en elle même. Le laser, opérant en lumière visible, n'est là que pour pointer le point de mesure. Autrement dit, un bête pointeur laser (oui, comme ceux pour pointer le tableau dans les exposés ou faire courir un chat d'appartement) couplé à un thermomètre à infrarouges. Cela fait cependant plus impressionnant de parler de « pistolet laser », comme dans Star Wars...

- page 1 de 88