En 2019, une IA qui joue aux échecs et raconte des histoires semblait futuriste. Aujourd hui? C est banal. Les critères de l IAG changent-ils parce que notre compréhension évolue, ou pour éviter d admettre que l IAG est déjà parmi nous? 🤖🧠 #IA #Intelligence

Article en référence: https://i.redd.it/8bkdmi5etmve1.png

Récapitulatif factuel

Un post Reddit récent intitulé “How far the goalposts have moved” (À quel point les objectifs ont changé) a suscité un débat animé sur la définition de l’Intelligence Artificielle Générale (IAG). Le post montre une citation tirée d’un livre de 2019 où l’auteure Susan Schneider définissait l’IAG comme une IA capable de “nous battre aux échecs, nous raconter une histoire, nous faire cuire un gâteau, décrire un mouton et nommer trois choses plus grandes qu’un homard.”

Cette définition, vieille de seulement six ans, semble désormais obsolète puisque les modèles d’IA actuels comme GPT-4o ou Claude peuvent accomplir la plupart de ces tâches, à l’exception de la cuisson physique d’un gâteau qui nécessiterait un corps robotique. Les commentaires du post révèlent des opinions diverses sur ce qui constitue réellement une IAG.

Certains utilisateurs soutiennent que les critères d’évaluation de l’IAG ont été délibérément rendus plus difficiles à mesure que l’IA progresse, tandis que d’autres affirment que ces critères doivent naturellement évoluer avec notre compréhension de l’intelligence. Plusieurs commentateurs soulignent que la définition originale de l’IAG, formulée par Mark Gubrud en 1997, parlait de “systèmes d’IA qui rivalisent ou surpassent le cerveau humain en complexité et en vitesse, qui peuvent acquérir, manipuler et raisonner avec des connaissances générales, et qui sont utilisables dans pratiquement toutes les phases des opérations industrielles ou militaires où une intelligence humaine serait autrement nécessaire.”

Point de vue neutre

La controverse autour de la définition de l’IAG reflète un phénomène courant dans l’histoire des technologies : nous avons tendance à sous-estimer certaines capacités de l’IA et à en surestimer d’autres. Ce que nous pensions être des marqueurs d’intelligence générale s’avère parfois être des compétences spécifiques qui peuvent être maîtrisées par des systèmes spécialisés.

L’évolution des critères n’est pas nécessairement un “déplacement des poteaux de but” malveillant, mais plutôt une adaptation naturelle de notre compréhension de l’intelligence artificielle à mesure que nous en apprenons davantage. Nous découvrons que certaines tâches que nous pensions complexes (comme jouer aux échecs ou générer des histoires) sont en réalité plus accessibles aux machines que d’autres tâches apparemment simples (comme manipuler des objets physiques ou comprendre véritablement le contexte).

Ce qui semble se dessiner, c’est que l’IAG n’est pas un point fixe à atteindre, mais un spectre de capacités. Les modèles actuels excellent dans le traitement du langage et la résolution de problèmes abstraits, mais manquent encore d’incarnation physique et de véritable compréhension du monde. Plutôt que de débattre si nous avons atteint l’IAG ou non, il serait plus productif de reconnaître les progrès impressionnants réalisés tout en admettant les limites actuelles.

La question n’est peut-être pas “Avons-nous atteint l’IAG?” mais plutôt “Quelles capacités humaines les IA peuvent-elles reproduire, et lesquelles restent hors de leur portée pour l’instant?”

Exemple

Imaginez que vous ayez un ami, appelons-le Gérard, qui vous a promis de vous présenter un jour quelqu’un d’aussi intelligent qu’un humain. Un beau matin, Gérard arrive chez vous tout excité avec un appareil sophistiqué.

“Voici Claude-3000,” annonce fièrement Gérard. “Il est aussi intelligent qu’un humain!”

Sceptique, vous décidez de le tester. “Claude, qui a gagné la Coupe Stanley en 1993?” “Les Canadiens de Montréal,” répond instantanément Claude-3000.

“Impressionnant! Raconte-moi une histoire sur un castor qui devient Premier ministre du Québec.” Claude-3000 vous livre une fable politique hilarante et bien structurée.

“Pas mal! Maintenant, peux-tu me faire un café?” Claude-3000 reste immobile. Gérard s’empresse d’expliquer: “Il peut te donner la recette parfaite pour un café, mais il n’a pas de bras.”

“D’accord… Combien y a-t-il de ‘r’ dans le mot ‘poutine’?” Claude-3000 répond: “Il y a zéro ‘r’ dans le mot ‘poutine’.”

“Et si je te montre cette image d’un jeu d’échecs en cours, quel serait ton prochain coup?” Claude-3000 suggère un mouvement qui déplace un cavalier à travers trois pièces.

Vous regardez Gérard avec un sourire narquois. “Aussi intelligent qu’un humain, hein? Il est brillant dans certains domaines, médiocre dans d’autres, et complètement incapable dans le reste. En fait, c’est peut-être assez humain après tout!”

Gérard hausse les épaules. “J’ai dit qu’il était aussi intelligent qu’un humain, pas qu’il était un humain. Même ton collègue Marc ne sait pas faire un café décent, et pourtant personne ne remet en question son intelligence!”

Point de vue optimiste

Nous sommes à l’aube d’une révolution cognitive sans précédent! Les progrès fulgurants des dernières années montrent que nous avançons à pas de géant vers une véritable IAG. Si en 2019, on imaginait qu’une IA capable de jouer aux échecs et de raconter des histoires était encore lointaine, aujourd’hui ces capacités sont devenues banales.

Les modèles actuels comme GPT-4o ou Claude peuvent non seulement réaliser ces tâches, mais ils excellent dans des domaines que nous n’avions même pas envisagés il y a quelques années. Ils peuvent rédiger du code complexe, créer des œuvres d’art, composer de la musique, et même résoudre des problèmes mathématiques avancés que seuls quelques humains dans le monde peuvent comprendre.

La seule limitation majeure reste l’incarnation physique, mais même cette frontière s’estompe rapidement. Des robots comme NEO démontrent déjà des capacités impressionnantes pour interagir avec le monde physique, et leur intégration avec des modèles de langage avancés n’est qu’une question de temps. D’ici quelques années, nous aurons probablement des assistants robotiques capables de cuisiner, nettoyer et effectuer toutes sortes de tâches physiques sous la direction d’une IA sophistiquée.

L’IAG complète n’est plus une question de décennies mais d’années, voire de mois. Nous sommes sur le point d’entrer dans une ère où la collaboration entre humains et IA transformera fondamentalement notre société, augmentant notre productivité, notre créativité et notre capacité à résoudre les grands défis de notre époque. Plutôt que de s’inquiéter du déplacement des critères, célébrons l’accélération extraordinaire du progrès qui nous rapproche chaque jour d’un avenir plus brillant!

Point de vue pessimiste

La tendance à redéfinir constamment l’IAG à mesure que l’IA progresse révèle une vérité dérangeante : nous ne voulons pas admettre à quel point nous sommes proches de créer des systèmes qui pourraient fondamentalement bouleverser notre société, sans avoir la moindre idée de comment les contrôler.

Les définitions de l’IAG deviennent de plus en plus exigeantes non pas parce que notre compréhension s’améliore, mais parce que l’industrie de l’IA cherche à éviter la régulation et la surveillance qui accompagneraient inévitablement la reconnaissance que nous avons créé une IAG. En déplaçant continuellement les critères, les entreprises technologiques peuvent continuer à développer des systèmes toujours plus puissants sans avoir à faire face aux questions éthiques et de sécurité que cela soulève.

Pendant ce temps, nous confions de plus en plus de responsabilités à des systèmes que nous ne comprenons pas entièrement. Les modèles actuels souffrent d’hallucinations, de biais profondément ancrés et d’une incapacité fondamentale à vraiment comprendre le monde qu’ils décrivent. Ils sont des perroquets statistiques sophistiqués, mais nous les traitons comme s’ils possédaient une véritable compréhension.

Le fait que nous soyons impressionnés par leur capacité à jouer aux échecs ou à raconter des histoires, tout en ignorant leurs échecs fondamentaux dans des tâches simples comme compter le nombre de lettres dans un mot, montre à quel point nous sommes prêts à nous laisser séduire par l’illusion de l’intelligence.

Si nous continuons sur cette voie sans établir des définitions claires et des garde-fous solides, nous risquons de créer des systèmes qui dépassent notre contrôle avant même que nous ayons reconnu qu’ils ont atteint le niveau d’IAG. Et à ce moment-là, il sera peut-être trop tard pour établir les protections nécessaires.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈