Toute la presse parle d'un récent article de mon collègue Gilles-Eric Séralini et ses collaborateurs qui démontrerait la toxicité d'une certaine variété de maïs génétiquement modifiée. Si l'on cherche OGM dans Google, on tombe en premier lieu sur un lien publicitaire de l'organisation Greenpeace avec la mention sans équivoque « OGM = Danger - La science le prouve ».

L'article met en exergue le fait que la mortalité dans les groupes témoins de rats mâles et femelles est respectivement de 30% et 20%, tandis qu'elle va à 50% voire 70% dans certains groupes ayant absorbé le maïs OGM et/ou le maïs traité au Roundup ; ces chiffres sont repris par certains commentateurs grand public comme signe de la toxicité des produits évoqués.

Par ailleurs, divers scientifiques expriment des doutes quant aux conclusions que l'on peut tirer de cette étude ; certains diront que c'est parce qu'ils sont payés par Monsanto ou d'autres groupes.

Une objection qui revient est que l'on ne peut pas mettre en évidence des effets faibles sur des effectifs de rats aussi petits (10 dans le groupe témoin, 10 dans chacun des groupes testés avec les aliments dont on cherchait à établir la toxicité). Il est alors en effet impossible de distinguer les effets réels des produits du simple hasard (l'espèce de rat considérée ayant une espérance de vie du même ordre que la longueur de l'expérience, il est assez normal de constater que des rats meurent). Je vais tenter ici d'expliquer cette objection.

Je pourrais me lancer dans une digression mathématique à base de variables aléatoires de Bernoulli, de loi binomiale, de théorème central limite, mais ça n'apporterait rien à ceux qui connaissent déjà les statistiques élémentaires et ça ne dirait rien à ceux qui ne lisent pas les mathématiques niveau terminale scientifique.

Voici plutôt une petite expérience. Supposons qu'on ait 100 rats qu'on laisse vieillir suffisamment longtemps pour qu'ils aient chacun une (mal)chance de 50% de mourir de mort naturelle avant la fin de l'expérience (en d'autres termes, l'expérience dure assez longtemps pour que si on a un grand nombre de rats au début, il n'y en ait que la moitié de vivants à la fin). Imaginons maintenant que ces rats sont répartis arbitrairement en groupes de 10, et qu'on mesure le nombre de morts dans chaque groupe.

Pour mener pareille expérience, inutile de prendre de vrais rats, on peut tout simplement utiliser un ordinateur qui tire à pile ou face la vie de cent rats groupés par paquets de 10. Voici un petit programme en langage Python qui fait exactement cela :

import random
random.seed(20120925)
proba=0.5
for i in range(10):
    print sum([1 if random.random() < proba else 0 for j in range(10)])

Les nombre de morts dans les 10 groupes de 10 rats sont respectivement : 6, 7, 5, 3, 3, 5, 4, 5, 5, 6. (Le nombre total de morts est 49, ce qui est bien environ égal à la moitié de 100 !) Ceci montre que par simple effet du hasard, on peut obtenir aussi bien 30% que 70% de morts dans chaque groupe.

Ainsi, le simple constat qu'un groupe témoin a 30% de morts tandis que des groupes traités en ont 50% ou 70%, pour des groupes de taille 10, ne permet pas de conclure grand chose. Ceci n'enlève évidemment rien à l'éventuelle validité des autres arguments présentés dans l'article en question, sur lesquels je ne me prononce pas, pas plus d'ailleurs que sur l'éventuelle toxicité des produits dont on discute.

(Les curieux se demanderont peut-être ce que vient faire ce nombre 20120925. J'utilise en fait un générateur pseudo-aléatoire, que j'aurais pu initialiser avec une source matérielle d'aléa, mais on aurait pu alors insinuer que j'aurais lancé mon expérience plusieurs fois jusqu'à avoir des valeurs qui conviennent pour écrire un article. J'ai donc préféré utiliser... la date d'aujourd'hui.)

PS Une autre expérience du même tonneau. J'ai pris un tableau de 150 notes d'étudiants (moyenne 13,1) et je les ai réparties aléatoirement dans 15 groupes de 10. On obtient des moyennes par groupe entre 11,3 et 14,7, purement sous l'effet du hasard. Certains pourraient cependant hâtivement conclure que l'enseignant du groupe à 14,7 est meilleur que celui du groupe à 11,3...

PS² Afin de lever toute ambiguïté : je discute ici uniquement de la pertinence de l'argumentation de ceux qui relèvent des écarts de 30 à 70% sur des échantillons de dix individus comme preuves de phénomènes. Comme je le disais plus haut, il y a d'autres considérations dans l'article en question (beaucoup plus intéressant que les commentaires grand public qui en sont faits).