Elle établit (en notant bien en conclusion que c'est tout de même plus compliqué que cela) l'opposition entre ce qui relève du choix arbitraire ou de la perception personnelle (par exemple, certaines personnes sont plus frileuses que d'autres et perçoivent différemment la même température ambiante) et ce qui relève de la vérité objective, indiscutable et dont il serait stupide de disputer (par exemple, 2+4=6).

Je voudrais ici expliquer comment une partie du travail mathématique consiste à remettre en cause les définitions précédentes quand celles-ci nous gênent, alors que la notion habituelle que l'on a des mathématiques, quand on a dépassé l'idée que le métier d'un mathématicien est de calculer, est que l'on prouve des théorèmes à partir de définitions préexistantes.

0=6

Imaginons que Janine ait écrit non pas 2+4=6, mais 2+4=0. A première vue, cela paraît une proposition absurde : on sait bien que 2+4=6 et que 6 et 0 sont distincts. Maintenant, si j'écrivais 20+40=00, on reconnaîtrait qu'il s'agit du même phénomène que le décompte des secondes ; si j'écrivais 2+11=1, il s'agirait du même décompte que les heures sur une horloge comptant 12 heures. En termes mathématiques, il s'agit d'arithmétique modulaire. Par exemple, la « preuve par neuf » est une application de l'arithmétique modulaire, où l'on part de 0=9.

Un mathématicien peut choisir de travailler en arithmétique modulaire, si celle-ci convient à ses objectifs. C'est un choix qui ne pose aucun problème, à condition d'être cohérent (on ne peut pas, sans précautions, raisonner à un moment sur x et y en arithmétique modulaire et ensuite raisonner comme s'il s'agissait d'entiers ordinaires).

Extension du domaine de la lutte

Faisons maintenant un bref historique des nombres. (Petite mention pour les esprits chagrins : je ne suis pas historien des sciences et n'enseigne pas l'histoire des mathématiques. Si je fais des erreurs, je vous saurai gré de les signaler en commentaire.)

La notion la plus immédiate de nombre, ce sont les entiers naturels : 1, 2, 3…, qui permettent de compter des objets. Cependant, si l'on veut raisonner non plus sur des objets entiers mais sur des parts, on est amené à considérer des rationnels, appelés « fractions » dans les petites classes : ½, ¾, 123/45, etc.

On connaît le « théorème de Pythagore » donnant la longueur a de l'hypoténuse d'un triangle rectangle en fonction des longueurs b et c des deux autres côtés : a²=b²+c². Si on l'applique sur un triangle de petits côtés de longueur b=3 et c=4, on obtient a=5 ; pas de problème. Si on l'applique sur un triangle de petits côtés de longueur b=1 et c=1, on obtient a²=2. Or, on peut montrer qu'il n'existe aucun rationnel dont le carré est 2. On prétend que ce fait était connu des pythagoriciens, mais qu'ils auraient noyé celui qui l'aurait énoncé pour offense à l'ordre divin ; voilà bien une anecdote dans le style de la vulgarisation des sciences modèle XIXe siècle !

Pour pouvoir continuer d'utiliser le théorème de Pythagore même dans ce cas, on doit s'autoriser à raisonner sur plus de nombres que les rationnels ; par exemple dans les réels ou les algébriques. La définition précise de ceux-ci importe peu pour mon propos : il s'agit simplement de remarquer que lorsque l'on a besoin de parler de quelque chose ayant des propriétés raisonnables, mais que les définitions que l'on utilise interdisent l'existence de cet objet, on change les définitions, et qu'on le fait habituellement en prenant une définition qui préserve la plupart des propriétés de l'existant mais l'inclut dans un cadre plus large.

Le même phénomène s'est reproduit à la Renaissance, dans l'étude des équations algébriques de degré 3 et 4. Pour simplifier le raisonnement sur celles-ci, il est tentant de parler de racines carrées de nombres négatifs. Or, cela n'a pas de sens en ce qui concerne les rationnels, les réels algébriques ou les réels en général, puisque tout carré y est positif ou nul. On introduit donc les « nombres complexes », qui ont les propriétés requises et étendent la notion de réels.

Un élève de terminale scientifique sait que l'intégrale d'une fonction sur un segment de longueur nulle est nulle. Il est pourtant tentant de disposer d'objets (je veux dire par là : de concepts mathématiques) qui se comportent comme des fonctions intégrables (avec divers théorèmes usuels qui restent valables), mais qui permettent d'avoir une intégrale non nulle sur un segment de longueur nulle. En physique, cela permet par exemple de considérer les cas idéaux où toute la masse est en un point, toute la charge est sur la surface, etc. Là encore, c'est une idée tellement naturelle qu'en enseignement de la physique on l'emploie alors même qu'on n'a pas défini mathématiquement ce dont il s'agit. Autrement dit, l'intuition du concept, et des propriétés qu'ils devrait vérifier, précède la définition formelle. C'est pour répondre à cette « demande » que Laurent Schwartz a proposé la théorie des distributions.

Je pourrais multiplier les exemples. Si notre notion de l'intégrale est trop restrictive (il y a des fonctions raisonnables qui ne sont pas intégrables, ou alors il est impossible de démontrer des théorèmes « naturels » pour des raisons « pathologiques »), par exemple si l'on prend l'intégrale des fonctions réglées, il est possible de passer sur une autre notion (celle de Lebesgue). J'ai même des camarades mathématiciens qui plaisantent sur le « corps à un élément » (notion absurde), parce qu'il y a des notions (de géométrie algébrique, il me semble) qui s'étendent comme s'il s'agissait de parler d'un tel corps…

La question posée n'est pas la bonne

Dans une certaine mesure, donc, les définitions mathématiques sont négociables. Je vais maintenant aller plus loin : dans une certaine mesure, les théorèmes sont négociables ; ou plutôt, sont négociables les conséquences « pratiques » que l'on prétend en tirer.

Il existe une branche des mathématiques (ou de l'informatique) appelée « calculabilité », qui étudie ce qui peut ou non se calculer à l'aide d'un processus automatisé (bref, d'un programme d'ordinateur, mais on a commencé d'étudier ces questions avant que les ordinateurs n'existent).

Or, en calculabilité, on considère comme « calculable » ce qui peut l'être par tout algorithme sans condition de ressources — même si cet algorithme prendrait plus de temps que des milliards de milliards de fois l'âge de l'univers sur un ordinateur de la taille du système solaire. Du point de vue pratique, l'existence d'un tel algorithme ne se distingue pas d'une absence d'algorithme.

Par ailleurs, il existe divers problèmes dont on démontre qu'ils ne sont pas « calculables », mais pour lesquels il existe des (semi) algorithmes qui les résolvent dans la plupart des cas intéressants. La simplification de formules en calcul formel en est un exemple (on montre, par réduction du Xe problème de Hilbert, qu'il n'existe pas de procédure de simplification universelle pour des mélanges de polynômes et de fonctions trigonométriques). Pourtant, on vend d'excellents logiciels de calcul formel (Maple, Mathematica..) qui semblent contenter les utilisateurs.

Ce n'est pas que l'étude de la calculabilité est inintéressante, y compris pour des besoins pratiques. Il est utile de se rendre compte, avant de chercher un algorithme pour un problème, voire de se mettre à implanter ce qu'on croît être une solution, que le problème est indécidable. Simplement, le fait qu'il le soit n'implique pas que la situation soit perdue, et le fait qu'il soit décidable n'implique nullement qu'elle soit gagnée.

La nécessité de prendre en compte l'usage de ressources (temps, mémoire) a suscité le développement de la théorie de la calculabilité, dont la manifestation la plus connue est la conjecture P≠ NP (considérée comme un des problèmes mathématiques les plus importants de notre époque). Il s'agit ici de distinguer des problèmes selon leur difficulté intrinsèque — en effet, il faut bien distinguer le cas d'un problème coûteux à résoudre parce qu'on a choisi un algorithme inefficace, du cas où un problème est intrinsèquement coûteux et qu'il n'y a pas d'algorithme efficace.

Là encore, la limite de cet analyse est qu'elle considère le pire cas. Or, il existe quantité de problèmes dont le cas le pire est prohibitif, mais que l'on arrive à résoudre dans des cas qui intéressent vraiment les gens.

Ici, la difficulté conceptuelle est qu'il ne faut pas faire dire aux théorèmes ce qu'ils ne disent pas, et prendre la question théorique générale que l'on résout (la question de la décidabilité ou de la classe de complexité d'un problème) pour la question qui importe réellement dans la réalité. Dans un billet précédent, j'avais déjà expliqué qu'un des dangers de la théorie est de répondre à côté de la question.

L'applicabilité limitée de certaines réponses théoriques peut être l'occasion de reformuler ou affiner la question posée (veut-on réellement résoudre ce problème en toute généralité, ou se place-t-on dans une classe favorable ? que dire de la complexité en moyenne ? etc.).

Conclusion : anything goes

(Oui, c'est une allusion à Feyerabend.)

Quand la définition nous gêne, quand la question posée n'est pas la bonne, il ne faut pas hésiter à en changer. À condition de ne pas faire n'importe quoi, bien sûr.