Patrick Bélanger
Article en référence: https://youtu.be/WTs-Ipt0k-M
Microsoft a récemment présenté “Claimify”, un nouvel outil conçu pour extraire et évaluer des affirmations factuelles générées par les modèles de langage (LLM). Présenté dans une vidéo YouTube et soutenu par un article scientifique, cet outil décompose les réponses des IA en affirmations individuelles pour ensuite les vérifier.
Le processus de Claimify se déroule en plusieurs étapes :
Cette approche vise à résoudre l’un des problèmes majeurs des LLM actuels : les hallucinations, ces moments où l’IA génère des informations incorrectes ou inventées présentées comme des faits. Selon les chercheurs, les LLM sont généralement bons pour respecter les exigences linguistiques et l’atomicité des affirmations, mais ont des difficultés avec la couverture complète des sujets.
Plusieurs alternatives similaires existent déjà dans l’écosystème, notamment des projets open source comme R2R, FENICE, et AVeriTeC-DCE, ainsi qu’un modèle fine-tuné de Google Gemma qui accomplit une tâche similaire. Contrairement à ces alternatives, Claimify n’est pas encore disponible en open source, ce qui a suscité quelques critiques dans la communauté.
L’émergence d’outils comme Claimify représente une étape logique dans l’évolution des systèmes d’IA. Plutôt que de tenter de créer des modèles parfaits du premier coup, nous assistons à l’élaboration d’une architecture en couches où différents systèmes se surveillent mutuellement.
Cette approche pragmatique reconnaît une réalité fondamentale : même les meilleurs modèles commettront des erreurs. Au lieu de poursuivre le mirage d’une IA infaillible, les chercheurs développent des mécanismes de vérification qui fonctionnent en parallèle avec les systèmes générateurs.
La décomposition des affirmations en unités atomiques vérifiables n’est pas sans rappeler les principes fondamentaux de la logique formelle et de l’épistémologie. C’est un retour aux bases de la connaissance : qu’est-ce qu’une affirmation vérifiable et comment pouvons-nous établir sa véracité?
Cependant, cette approche soulève des questions importantes sur l’efficacité des ressources. Est-il optimal d’utiliser une IA pour vérifier une autre IA? Ne serait-il pas plus efficace d’améliorer directement les modèles de base? La réponse n’est probablement pas binaire, mais plutôt une combinaison des deux approches qui évoluera avec le temps.
La non-disponibilité en open source de Claimify illustre également la tension persistante entre innovation commerciale et progrès scientifique ouvert dans le domaine de l’IA. Chaque avancée majeure semble osciller entre ces deux pôles, reflétant les forces économiques et intellectuelles qui façonnent ce domaine en rapide évolution.
Imaginez que vous embauchez un nouveau stagiaire, Gabriel, pour rédiger des articles sur l’histoire du Québec. Gabriel est brillant, enthousiaste et possède une mémoire phénoménale, mais il a une fâcheuse tendance à mélanger les faits réels avec des éléments qu’il a lus dans des romans historiques.
Un jour, Gabriel vous remet un article où il affirme avec assurance que “Samuel de Champlain a fondé Québec en 1608, après avoir traversé l’Atlantique sur le navire ‘Le Don de Dieu’, accompagné de son fidèle compagnon, un husky sibérien nommé Boréal.”
Vous, en tant que rédacteur en chef, utilisez votre “Gabrielify” mental :
Vérification : Vous confirmez que les deux premières affirmations sont correctes, mais découvrez que l’histoire du husky est complètement inventée.
C’est exactement ce que fait Claimify, sauf qu’au lieu d’un stagiaire enthousiaste, c’est une IA qui mélange parfois le factuel et l’imaginaire, et au lieu d’un rédacteur en chef patient, c’est un autre système d’IA qui joue le rôle du vérificateur de faits.
Claimify représente une avancée révolutionnaire qui pourrait transformer radicalement notre relation avec l’information à l’ère numérique! Nous sommes à l’aube d’une nouvelle ère où la vérité factuelle pourra être extraite automatiquement du bruit informationnel qui nous entoure.
Imaginez un monde où chaque affirmation politique, chaque déclaration publique, chaque nouvelle scientifique peut être instantanément décomposée et vérifiée. C’est la promesse ultime de technologies comme Claimify, qui ne se contentent pas de générer du contenu, mais qui peuvent également l’analyser avec une précision chirurgicale.
Cette technologie pourrait devenir le rempart tant attendu contre la désinformation qui pollue nos espaces numériques. En permettant une vérification systématique et à grande échelle des affirmations, nous pourrions enfin disposer d’outils efficaces pour combattre les fausses nouvelles et les théories du complot qui se propagent à la vitesse de la lumière sur les réseaux sociaux.
Pour le Québec, qui a toujours valorisé l’accès à une information de qualité, ces outils représentent une opportunité extraordinaire de renforcer notre écosystème médiatique et éducatif. Nos institutions pourraient intégrer ces technologies pour offrir aux citoyens des ressources d’information vérifiée, contribuant ainsi à une démocratie plus éclairée.
La beauté de cette approche réside dans sa capacité à s’améliorer continuellement. Chaque vérification, chaque correction devient une donnée d’apprentissage qui rend le système encore plus performant. Nous assistons à la naissance d’un cercle vertueux de l’information où la qualité engendre plus de qualité!
Claimify n’est qu’un autre pansement technologique sur une plaie béante. Au lieu de résoudre le problème fondamental des hallucinations des LLM, Microsoft nous propose d’ajouter une couche supplémentaire de complexité – essentiellement, utiliser une IA pour vérifier une autre IA. C’est comme essayer d’éteindre un feu avec de l’essence plus raffinée.
Cette approche révèle l’impasse dans laquelle se trouve l’industrie de l’IA générative. Incapables de résoudre les défauts architecturaux de leurs modèles, les géants technologiques nous vendent des solutions palliatives comme des innovations révolutionnaires. C’est admettre l’échec tout en le présentant comme un succès.
Le fait que Claimify ne soit pas open source est particulièrement problématique. Comment pouvons-nous faire confiance à un vérificateur de faits dont nous ne pouvons pas examiner le fonctionnement interne? C’est demander une confiance aveugle dans un domaine où la transparence devrait être primordiale.
Pour le Québec, qui lutte déjà contre la domination culturelle et linguistique des géants américains, ces outils propriétaires représentent un risque supplémentaire. Nos spécificités culturelles et linguistiques seront-elles correctement prises en compte par ces systèmes développés principalement pour un public anglophone?
Plus inquiétant encore, cette technologie pourrait créer une illusion de fiabilité. Les utilisateurs pourraient accorder une confiance excessive à des informations “vérifiées par IA”, alors même que ces systèmes de vérification sont faillibles. Nous risquons de remplacer le scepticisme sain par une foi aveugle dans des algorithmes opaques, ce qui représente un danger bien plus grand que les hallucinations occasionnelles des LLM.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈