Patrick Bélanger
Article en référence: https://gizmodo.com/mit-backs-away-from-paper-claiming-scientists-make-more-discoveries-with-ai-2000603790
Le MIT (Massachusetts Institute of Technology) vient de prendre ses distances avec une étude controversée qui affirmait que les scientifiques font plus de découvertes lorsqu’ils utilisent l’intelligence artificielle. L’institution a déclaré n’avoir “aucune confiance dans la provenance, la fiabilité ou la validité des données, ni dans la véracité des recherches contenues dans l’article.” Le chercheur responsable n’est désormais plus affilié à l’université, et le MIT a demandé le retrait de l’article du site de prépublication arXiv.
Cette controverse s’inscrit dans un contexte plus large où les grands modèles de langage (LLM - Large Language Models) comme ChatGPT sont au centre de débats sur leur utilité réelle dans la recherche scientifique. Ces modèles, qui fonctionnent en prédisant la suite probable d’un texte à partir d’énormes quantités de données d’entraînement, sont parfois critiqués pour leur tendance à “halluciner” - c’est-à-dire à générer des informations qui semblent plausibles mais qui sont en réalité inexactes ou complètement inventées.
Le MIT n’a pas détaillé la nature exacte des problèmes identifiés dans l’étude, invoquant “les lois sur la confidentialité des étudiants et la politique du MIT.” Cependant, cette rétractation soulève des questions importantes sur la rigueur scientifique à l’ère de l’IA et sur la façon dont les institutions académiques gèrent les recherches potentiellement problématiques.
Cette controverse met en lumière un défi fondamental de notre époque : comment naviguer entre l’enthousiasme pour les nouvelles technologies et la nécessité d’une rigueur scientifique inébranlable. L’IA n’est ni une panacée miraculeuse ni une menace existentielle - c’est un outil puissant qui requiert une utilisation réfléchie et critique.
Les LLM actuels excellent dans certaines tâches comme la synthèse d’informations ou la génération d’idées, mais présentent des limites importantes quant à la vérification factuelle. Ils se situent quelque part entre un moteur de recherche amélioré et un assistant de recherche novice - utiles pour certaines tâches, mais nécessitant toujours une supervision humaine attentive.
La démarche du MIT illustre le fonctionnement normal de l’autocorrection scientifique : une étude problématique est identifiée, évaluée, puis retirée si nécessaire. Ce processus, bien que parfois lent et imparfait, demeure essentiel pour maintenir l’intégrité de la recherche. La vraie question n’est pas de savoir si l’IA va remplacer les scientifiques, mais plutôt comment elle peut être intégrée judicieusement dans le processus scientifique pour amplifier les capacités humaines tout en respectant les standards rigoureux de la méthode scientifique.
Imaginez que vous êtes un chef cuisinier réputé et qu’on vous présente un nouveau robot de cuisine révolutionnaire. Le vendeur vous assure qu’il peut créer des recettes gastronomiques inédites et sublimes sans aucune intervention humaine. Intrigué, vous l’essayez et il vous propose une recette qui semble fascinante sur papier : “Soufflé au chocolat et à la sardine avec réduction de sirop d’érable et piment habanero”.
La recette est présentée de façon éloquente, avec des termes techniques impressionnants et des promesses de saveurs “transcendantes”. Mais en tant que chef expérimenté, vous hésitez - cette combinaison d’ingrédients semble… douteuse. Vous décidez néanmoins de la tester, pour découvrir que le résultat est, sans surprise, immangeable.
C’est un peu ce qui se passe avec certaines études sur l’IA : elles peuvent paraître impressionnantes et révolutionnaires sur le papier, utiliser un jargon technique convaincant, mais lorsqu’on examine attentivement les ingrédients (les données) et la méthode (l’analyse), on découvre parfois que le “plat” scientifique ne tient pas ses promesses. Et tout comme un bon restaurant ne servirait jamais un plat sans l’avoir goûté, une institution scientifique sérieuse comme le MIT ne peut cautionner une étude sans en avoir vérifié rigoureusement la “recette”.
Cette rétractation, loin d’être un échec, représente une étape nécessaire dans la maturation de notre relation avec l’IA. C’est précisément parce que nous prenons au sérieux le potentiel transformateur de ces technologies que nous devons être exigeants quant à la qualité des recherches qui les concernent.
L’IA est déjà en train de révolutionner la recherche scientifique dans de nombreux domaines. Prenons l’exemple d’AlphaFold de DeepMind qui a résolu le problème du repliement des protéines, ou AlphaEvolve qui a récemment amélioré des algorithmes de multiplication matricielle sans intervention humaine directe. Ces avancées sont réelles et prometteuses.
La véritable promesse de l’IA en science ne réside pas dans le remplacement des chercheurs, mais dans l’augmentation de leurs capacités. Elle peut analyser des volumes de données impossibles à traiter manuellement, suggérer des hypothèses inédites, et accélérer considérablement certaines phases de la recherche. Nous sommes à l’aube d’une nouvelle ère où la collaboration homme-machine pourrait démultiplier notre capacité à résoudre les grands défis de notre temps, de la crise climatique aux maladies incurables.
Cette controverse nous rappelle simplement que nous devons construire cette nouvelle ère sur des fondations solides, avec intégrité et rigueur. C’est un rappel bienvenu, pas un frein au progrès.
Cette affaire n’est que la partie visible d’un iceberg inquiétant. Nous assistons à une vague de “science-fiction” présentée comme de la science véritable, propulsée par l’engouement démesuré pour l’IA et les intérêts financiers colossaux qui l’accompagnent.
Le problème dépasse largement cette étude particulière. Comme le soulignent plusieurs commentateurs du fil Reddit, les informations erronées ou trompeuses ont tendance à persister dans le discours public, même après avoir été réfutées. Combien de décideurs et d’investisseurs continueront à citer cette étude discréditée pour justifier des décisions aux conséquences réelles sur l’emploi et la recherche?
Plus préoccupant encore est le changement fondamental dans notre approche de l’innovation. Nous sommes passés d’une démarche où l’on identifie d’abord un problème pour ensuite chercher une solution technologique adaptée, à une logique où l’on crée d’abord une technologie pour ensuite chercher désespérément à la placer quelque part - n’importe où. Ce n’est plus de l’ingénierie, c’est du marketing agressif à l’échelle industrielle.
Les LLM actuels sont essentiellement des banques de données dotées d’algorithmes de compression sophistiqués, pas des entités “intelligentes”. Pourtant, par un tour de force marketing, ils ont été rebaptisés “IA” et vendus au public comme des agents pensants. Cette mystification a des conséquences concrètes : dévalorisation de la créativité humaine, érosion de la pensée critique, et détournement de ressources précieuses qui pourraient être consacrées à résoudre de vrais problèmes plutôt qu’à alimenter des cycles d’engouement technologique sans fin.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈