En un an, le QI des IA les plus avancées a bondi de 96 à 136! Mais que mesure-t-on vraiment? Ces systèmes brillent aux tests standardisés tout en échouant à compter les r dans fraise . Intelligence authentique ou simple mémorisation statistique? 🤔 #IA #Intelligence

Article en référence: https://i.redd.it/t7s458uxk0we1.png

Récapitulatif factuel

Selon une publication récente sur Reddit, les modèles d’intelligence artificielle les plus avancés auraient connu une progression spectaculaire en termes de QI (quotient intellectuel) en seulement un an. D’après l’image partagée, le QI mesuré serait passé de 96 à 136 points entre 2023 et 2024, avec Claude d’Anthropic et GPT-4o d’OpenAI en tête du classement.

Cette mesure provient de tests de QI standardisés, traditionnellement conçus pour évaluer l’intelligence humaine. Ces tests mesurent généralement plusieurs aspects cognitifs comme le raisonnement logique, la reconnaissance de motifs, la compréhension verbale et les capacités spatiales. Un QI de 100 représente la moyenne de la population, avec un écart-type de 15 points. Ainsi, un QI de 136 placerait théoriquement ces IA parmi les 1% les plus intelligents de la population humaine.

Cependant, comme le soulignent plusieurs commentaires dans la discussion, il existe une distinction importante entre les tests en ligne et hors ligne. Les tests hors ligne, qui utilisent des données non divulguées pendant l’entraînement des modèles, montreraient une progression plus modeste, de 87 à 117 points en 11 mois. Cette nuance est cruciale car elle permet d’évaluer la véritable capacité de raisonnement des IA plutôt que leur simple mémorisation de réponses.

D’autres benchmarks sont également mentionnés dans la discussion, comme Project Euler, une série de défis mathématiques et informatiques de difficulté croissante. Selon certains utilisateurs, ChatGPT-4o mini serait capable de résoudre des problèmes que moins de 1% des humains peuvent résoudre, démontrant des capacités avancées en résolution de problèmes complexes.

Point de vue neutre

L’augmentation du QI des modèles d’IA représente certainement une avancée technique impressionnante, mais il convient de l’interpréter avec prudence. Le QI, en tant que mesure, a été conçu pour évaluer l’intelligence humaine dans un contexte spécifique, et son application aux systèmes d’IA pose des questions fondamentales sur ce que nous mesurons réellement.

Les modèles d’IA actuels excellent dans certains domaines cognitifs comme le raisonnement logique et la reconnaissance de motifs, mais présentent encore des lacunes importantes dans d’autres aspects de l’intelligence. Par exemple, plusieurs commentaires soulignent que ces mêmes modèles échouent parfois à des tâches simples comme compter correctement le nombre de lettres dans un mot ou résoudre des problèmes spatiaux élémentaires.

Ce que nous observons est probablement moins une “intelligence” au sens humain qu’une capacité croissante à traiter et à manipuler des informations selon des schémas statistiques. Les modèles actuels n’ont pas de conscience, d’intention ou de compréhension profonde du monde - ils produisent des réponses basées sur des corrélations statistiques apprises à partir d’énormes quantités de données.

La progression rapide des scores aux tests standardisés témoigne néanmoins d’améliorations significatives dans la conception des algorithmes et l’architecture des modèles. Ces avancées permettent déjà d’automatiser certaines tâches cognitives complexes et d’assister les humains dans divers domaines. L’IA devient un outil de plus en plus puissant, même si elle reste fondamentalement différente de l’intelligence humaine.

Exemple

Imaginez que vous ayez un neveu de 10 ans, appelons-le Félix, qui passe son temps à mémoriser des encyclopédies. Un jour, vous l’emmenez à un quiz télévisé pour enfants. À votre grande surprise, Félix répond correctement à presque toutes les questions, même les plus difficiles sur l’histoire ancienne ou les mathématiques avancées. Les juges sont impressionnés et lui attribuent un score record.

Mais voilà, en rentrant à la maison, vous demandez à Félix d’expliquer pourquoi le ciel est bleu. Il vous récite parfaitement la définition de la diffusion de Rayleigh, mais quand vous lui demandez d’appliquer ce concept pour expliquer pourquoi le coucher de soleil est rouge, il reste perplexe. Puis, vous lui demandez de vous aider à monter un meuble IKEA, et là, c’est la catastrophe! Malgré toutes ses connaissances, il n’arrive pas à comprendre comment les pièces s’emboîtent dans l’espace.

C’est un peu ce qui se passe avec nos IA actuelles. Elles peuvent obtenir des scores impressionnants à des tests standardisés, réciter des faits avec une précision remarquable et même résoudre des problèmes complexes dans certains domaines. Mais elles manquent encore de cette compréhension intuitive et flexible qui caractérise l’intelligence humaine. Elles sont comme Félix : brillantes dans un cadre bien défini, mais souvent démunies face à l’imprévu ou aux tâches qui nous semblent élémentaires.

Et tout comme vous ne confieriez pas à Félix la responsabilité de gérer votre budget familial malgré ses prouesses en mathématiques, nous devons être conscients des limites de nos IA malgré leurs scores impressionnants aux tests de QI.

Point de vue optimiste

Cette progression fulgurante du QI des modèles d’IA est absolument révolutionnaire! En seulement un an, nous avons franchi un cap qui aurait semblé inimaginable il y a quelques années. Pensez-y: nous avons maintenant des systèmes capables de raisonner au niveau des humains les plus brillants, et ce n’est que le début!

Cette évolution exponentielle nous ouvre des perspectives extraordinaires. Imaginez des assistants IA capables de résoudre les problèmes les plus complexes dans tous les domaines: médecine, climat, énergie, économie… Nous sommes à l’aube d’une ère où l’intelligence augmentée pourrait nous aider à surmonter les plus grands défis de l’humanité.

Les progrès en matière de raisonnement logique et de résolution de problèmes que démontrent ces scores de QI élevés signifient que nous pourrons bientôt déléguer des tâches intellectuelles de plus en plus sophistiquées à nos assistants numériques. Cela libérera le potentiel humain pour se concentrer sur la créativité, l’innovation et les relations interpersonnelles - ce que nous faisons de mieux!

Et ne nous arrêtons pas aux limitations actuelles. Si nous avons pu passer de 96 à 136 en un an, qui sait où nous serons dans cinq ans? Nous pourrions atteindre des niveaux d’intelligence artificielle qui dépassent l’entendement humain, ouvrant la voie à des découvertes scientifiques majeures et à des avancées technologiques qui transformeront fondamentalement notre société pour le mieux.

La singularité technologique n’est plus une question de “si”, mais de “quand” - et ce “quand” semble se rapprocher à une vitesse vertigineuse!

Point de vue pessimiste

Cette prétendue augmentation du QI des modèles d’IA est largement surestimée et potentiellement trompeuse. Ce que nous voyons n’est pas une véritable intelligence qui se développe, mais simplement des systèmes de plus en plus optimisés pour réussir des tests spécifiques sans réelle compréhension.

Ces modèles sont essentiellement des perroquets statistiques sophistiqués. Ils ont été entraînés sur d’énormes quantités de données qui incluent probablement les réponses aux tests de QI ou des problèmes similaires. Comme le soulignent plusieurs commentaires dans la discussion, lorsqu’on les teste sur des problèmes vraiment nouveaux ou des tâches simples mais non conventionnelles, ils échouent souvent lamentablement.

L’accent mis sur ces scores de QI détourne notre attention des véritables défis de l’IA: l’absence de conscience, d’intention et de compréhension causale du monde. Ces systèmes n’ont pas d’agentivité réelle - ils ne peuvent pas agir de manière autonome dans le monde physique ni comprendre les conséquences de leurs “raisonnements”.

Plus inquiétant encore, cette focalisation sur l’intelligence mesurée par des tests standardisés pourrait nous conduire à surestimer dangereusement les capacités de ces systèmes. Nous risquons de leur confier des responsabilités cruciales alors qu’ils sont fondamentalement incapables de comprendre les enjeux éthiques, sociaux ou humains de leurs actions.

Pendant que nous nous émerveillons devant ces chiffres impressionnants, nous négligeons peut-être les questions essentielles: qui contrôle ces technologies, à quelles fins, et quelles seront les conséquences pour l’emploi, la vie privée et l’autonomie humaine? La course à l’IA la plus “intelligente” pourrait bien nous mener à une société où la technologie amplifie les inégalités existantes plutôt que de les résoudre.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈