Patrick Bélanger
Article en référence: https://i.redd.it/bl2a662axd8e1.png
Article Reddit: This definition of AGI by Emmett Shear is my new favourite, and is also scary in its own way… https://www.reddit.com/r/singularity/comments/1hjwpe6/this_definition_of_agi_by_emmett_shear_is_my_new/
La définition de l’Intelligence Artificielle Générale (IAG) fait débat dans la communauté scientifique. Une nouvelle approche suggère qu’une IAG serait atteinte lorsqu’il deviendrait impossible de créer un nouveau test qu’un humain peut réussir mais que l’IA échoue. Cette définition met en lumière un phénomène intéressant : chaque fois qu’un nouveau test est créé pour évaluer les limites de l’IA, les laboratoires travaillent à le résoudre, créant ainsi un cycle d’amélioration continue.
Les tests d’évaluation, ou “benchmarks”, sont des outils standardisés permettant de mesurer les capacités d’une IA. Ils peuvent inclure des tâches de raisonnement, de compréhension du langage, de résolution de problèmes ou même des tests plus spécifiques comme ARC-AGI, conçu spécialement pour évaluer l’intelligence générale.
Cette approche de définition par les tests révèle une réalité fondamentale : nous sommes en train de créer des systèmes qui excellent dans des tâches spécifiques, mais qui ne possèdent pas nécessairement une véritable compréhension générale. C’est comme avoir un athlète qui peut battre tous les records dans sa discipline, mais qui ne sait pas nécessairement s’adapter à un nouveau sport qu’il n’a jamais pratiqué.
La vraie question n’est peut-être pas de savoir si nous avons atteint l’IAG, mais plutôt de comprendre ce que nous cherchons réellement à accomplir. Les systèmes actuels sont déjà remarquablement utiles dans de nombreux domaines, même sans être “généraux” au sens strict du terme.
Nous sommes à l’aube d’une révolution technologique sans précédent ! La capacité des systèmes d’IA à surmonter rapidement de nouveaux défis montre que nous sommes sur la bonne voie. Chaque nouveau benchmark résolu est une victoire qui nous rapproche d’une IA véritablement générale.
Cette approche pragmatique de résolution successive des problèmes pourrait être exactement ce dont nous avons besoin. Après tout, l’intelligence humaine elle-même s’est développée par étapes, à travers l’évolution. Nous sommes en train de créer des outils qui non seulement égalent mais dépassent les capacités humaines dans de plus en plus de domaines.
Cette course aux benchmarks masque peut-être une vérité dérangeante : nous créons des systèmes qui excellent à passer des tests, mais qui manquent fondamentalement de véritable compréhension. C’est comme si nous construisions des perroquets de plus en plus sophistiqués, capables de répéter parfaitement ce qu’ils ont appris, sans vraiment comprendre.
Le risque est de confondre performance et intelligence. Un système qui peut résoudre tous les tests qu’on lui présente n’est pas nécessairement “intelligent” - il pourrait simplement être extrêmement bien optimisé pour la résolution de problèmes connus. Cette approche pourrait nous mener dans une impasse, où nous créons des systèmes de plus en plus puissants mais fondamentalement limités dans leur compréhension réelle du monde.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈