Un avocat connu pour son blog et sa présence sur les réseaux sociaux s'est récemment répandu contre la prétention que l'on puisse prédire l'avenir grâce à des algorithmes. Ayant rappelé la définition de ce concept (la description finie d'un procédé de calcul à l'aide d'opérations élémentaires, de tests, de boucles…), il en déduisait comme une évidence qu'il était impossible de prévenir l'avenir de cette façon. S'en est suivi une conversation entre moi et un interlocuteur anonyme, conversation qui, il me semble, est intéressante, au-delà du cas d'espèce, pour l'illustration de mécanismes psychologiques et rhétoriques, et que je me propose donc de résumer ici.

Le dialogue

D.M. : On prédit pourtant l'avenir avec des algorithmes : par exemple, on prévoit des années à l'avance la trajectoire des engins spatiaux, les services de météorologie prédisent le temps qu'il fera…

Anonyme : Vous confondez lois sociales et lois physiques.

D.M. : Vous voulez des exemples sociaux ? La société Google a eu le succès que l'on sait notamment de part sa capacité à assez bien prédire qu'est-ce qui sera considéré comme pertinent par les lecteurs.

Anonyme : Il s'agit d'une société privée, à but lucratif et aux visées transhumanistes !

D.M. : La nature de cette société où les éventuelles visées de certains de ses dirigeants n'enlèvent rien à ses capacités techniques.

Anonyme : Au contraire, cela a un rapport énorme ! Qui plus est, je ne crois rien sans preuve, et en matière de logiciels, la preuve passe par des tests unitaires !

D.M. : Bonne soirée.

Maintenant, mon commentaire.

Motte-and-bailey

Lorsque l'on énonce des faits généraux, comme par exemple qu'on ne peut prédire l'avenir à l'aide d'algorithmes, on se doit normalement de qualifier la portée de ces faits. Si l'on entend parler de l'impossibilité de prédire algorithmiquement l'avenir d'un être humain ou d'un groupe d'êtres humains, par opposition à celui d'objets bien décrits par des lois physiques, il convient de dire que l'on ne parle que des faits sociaux. Sans cela, on entre dans une conversation assez déplaisante où l'un énonce pompeusement des « vérités » de grande portée, est démenti, puis se plaint d'avoir été mal compris et que bien entendu ce n'était pas ce qu'il voulait dire.

Certains auteurs anglophones appellent ce procédé rhétorique motte-and-bailey par analogie avec la défense des châteaux médiévaux : on commence par vouloir accaparer un large territoire conceptuel ou rhétorique, mais lorsque l'interlocuteur presse, on se retranche dans son château sur la butte avec un énoncé bien plus restreint.

Confusion entre la véracité et la moralité des faits

Il devrait être évident que l'on peut prétendre qu'un fait est avéré sans considérer qu'il est bon pour la société ou considérer que les personnes qui en sont à l'origine ont agi moralement. Ainsi, dire que le Parlement a voté une loi n'implique pas que l'on considère que cette loi est appropriée ou bonne, ou encore moins que l'on considère que les parlementaires sont particulièrement moraux.

Pourtant, ici, on a cru bon de contredire le fait que la société Google pouvait, d'une certaine façon, prédire l'avenir, en m'objectant que cette société est privée, capitaliste et à visées transhumanistes. Quel rapport ? Ce n'est pas parce que nous n'aimons pas la perspective de quelque chose, ou les objectifs de ceux qui l'accomplissent, que celle-ci est impossible.

Une autre anecdote. Il y a quelques années, j'avais expliqué sur ce blog pourquoi je croyais que les instances dirigeantes d'une organisation (instances dont je ne faisais pas partie, mais dont je connaissais assez bien la mentalité, les objectifs et les modes de raisonnement) allaient décider en un certain sens. J'ai alors été violemment pris à partie comme si c'était moi qui avais tranché ! Comme si, en quelque sorte, estimer quelque chose se passera revenait à considérer que cette chose soit souhaitable, bénéfique, voire à avoir pris part à la décision.

L'épouvantail du transhumanisme

Je suis assez fatigué d'entendre parler des dangers du « transhumanisme », qui serait la mentalité des « ingénieurs de la Silicon Valley ». Certes, certains entrepreneurs des hautes technologies, notamment Ray Kurzweil, font des déclarations en ce sens. Il convient cependant de se rappeler que ces gens, dans une optique entrepreneuriale américaine, doivent faire rêver, notamment pour attirer des investisseurs et des employés de premier choix. Autrement dit, ils doivent proposer des objectifs très ambitieux ; on se rappellera du président Kennedy s'exclamant « To the Moon ! » pour lancer le programme lunaire. On doit cependant également se rappeler que cette rhétorique hyperbolique masque parfois des réalités décevantes : par exemple, on annonçait comme une révolution un produit mystérieux… le Segway.

Il existe à mon avis des problèmes bien plus pressants que le transhumanisme, y compris en matière d'usage des technologies numériques. Pourtant, celui-ci semble obséder certains milieux. Je ne comprends guère.

Je suis notamment troublé que l'on prenne pour argent comptant les déclarations d'entrepreneurs « transhumanistes », tout en dénonçant leur duplicité. D'une part on dit que ces gens sont des menteurs qui promeuvent l'impossible, d'autre part on dit qu'ils ont des projets dangereux. D'une part on les taxe d'une grande naïveté, d'autre part on leur attribue une grande adresse — un peu comme ces méchants de James Bond, aux moyens infinis et à la cruauté raffinée, mais qui laissent s'échapper le héros.

Vérité et prouvabilité

Il est vrai que l'on peut prouver la correction d'algorithmes et de programmes ; c'est d'ailleurs, cela tombe bien, ma spécialité de recherche et d'enseignement (et je suis d'ailleurs très réservé quand on m'explique qu'on fait cela par des « tests unitaires »). Une grande difficulté, voire limitation, de cette approche, c'est que très souvent on n'a pas de spécification mathématique claire de ce que l'algorithme doit faire. Dire qu'un algorithme doit rendre en sortie son entrée triée par ordre croissant, cela peut être mathématiquement précis ; dire qu'il doit reconnaître une photo d'homme d'une photo de femme, c'est plus délicat, car on n'a pas de caractérisation mathématique de ce qu'est une photo d'homme ou de femme. Autrement dit, quand on touche aux faits humains ou sociaux, on peut souvent oublier toute possibilité de prouver l'efficacité finale de l'algorithme. (Cela n'exclut pas, bien sûr, de pouvoir montrer des propriétés mathématiques intéressantes, mais dont le lien avec la réalité sociale est discutable.)

En ce qui concerne la société Google, je me borne à constater que son cœur de métier original est de retrouver ce qui est pertinent pour le lecteur, autrement dit à prédire avec un certain succès que tel document pourrait l'intéresser tandis que tel autre non. Bien entendu, cette prédiction n'est pas parfaite, et on peut se gausser des erreurs de ciblage des automatismes de l'Internet (par exemple, cette régie publicitaire qui, un temps, me proposait des publicités pour produits destinés à l'hygiène des organes génitaux féminins externes). Il n'en reste pas moins que l'on sait faire des choses.

Constatons également ici des injonctions contradictoires. On explique tout d'abord que le monde social est d'une complexité telle que, contrairement à la mécanique simple des trajectoires spatiales, il est inaccessible à la description mathématique et à la prédiction algorithmique ; puis on reproche aux algorithmes destinés à l'étudier de ne pas venir avec une preuve de correction par rapport à une description mathématique dont justement on nie l'existence !

Militantisme et rhétorique grandiloquente

Dans le militantisme et, plus généralement, les convictions politiques, il y a souvent

  1. la rhétorique grandiloquente, emphatique et plein de grands principes souvent assez creux

  2. la confusion entre ses désirs et la réalité

  3. la tendance à donner des leçons (que l'on pourrait qualifier de splaining, suivant un mot à la mode) sur tout sujet, à partir du moment où celui-ci se relie aux convictions politiques et morales défendues

  4. la tendance à partir dans la morale lorsque l'on perd pied sur les faits.

Là, je pense avoir été servi.

(Mea culpa – je pense moi aussi faire preuve de ces quatre travers lorsque je parle de sujets politiques.)

Critique de la gouvernance algorithmique

Il existe pourtant des critiques fort valables des la prédiction algorithmique. À mon avis, le bon argument n'est pas que l'on ne peut pas prédire l'avenir à l'aide d'algorithmes — puisqu'on le peut, avec une bonne probabilité, dans bon nombre de cas. Les bons arguments me semblent plutôt :

  1. Les critères de prédiction identifiés peuvent être des prophéties auto-réalisatrices et leur utilisation aveugle pourrait être contre-productive. Par exemple, il est possible que le fait d'être plutôt pauvre et d'habiter dans certains quartiers prédispose plus au vol à la tire que de naître dans une famille de cadres supérieurs ; et il est plausible qu'un algorithme d'apprentissage automatique constate cela si on lui soumet un corpus de délinquants vs non délinquants. Faut-il en conclure qu'il faut, au moment d'embaucher un personnel, favoriser les enfants de cadres supérieurs ?

  2. Les prédictions sont des tendances statistiques qui doivent donc être analysées statistiquement. On sait bien, par exemple, qu'un procédé même précis appliqué en masse pour dépister un phénomène rare donnera surtout des faux positifs.

  3. Ce n'est pas parce qu'un résultat est produit par un procédé algorithmique qu'il est correct. Les procédés algorithmiques incluent des biais, que ce soient ceux de leurs concepteurs ou ceux induits par le fonctionnement d'algorithmes d'apprentissage. D'ailleurs, il est rare que l'on puisse appliquer à l'aveugle des techniques d'apprentissage automatique sans d'importants réglages demandant la collaboration d'experts en apprentissage et d'experts du domaine étudié.