Article en référence: https://v.redd.it/0fsa6c3kcvge1
Sam Altman, PDG d’OpenAI, a récemment déclaré que l’intelligence artificielle progresse d’un écart-type de QI chaque année. Un écart-type représente 15 points de QI dans l’échelle standard. Pour contextualiser, la distribution du QI suit une courbe en cloche où 68% de la population se situe entre 85 et 115, avec une moyenne de 100.
Cette progression signifierait qu’en partant d’un QI de 100, une IA atteindrait 115 la première année, puis 130, 145, et ainsi de suite. À noter que Altman a lui-même précisé que cette affirmation n’était pas scientifiquement rigoureuse, mais plutôt une perception générale de l’évolution.
Pour référence, un QI de 130 représente les 2% supérieurs de la population, typiquement associé aux détenteurs de doctorat. Au-delà de 150, les tests de QI perdent en précision et pertinence.
La métaphore d’Altman, bien qu’imprécise, illustre une réalité observable : les capacités des IA progressent rapidement, mais de manière inégale selon les domaines. Certaines tâches spécifiques montrent des améliorations spectaculaires, tandis que d’autres aspects stagnent.
Cette progression n’est pas linéaire comme le suggère l’analogie du QI. Les modèles d’IA excellent dans certains domaines tout en présentant des lacunes fondamentales dans d’autres. C’est comme un étudiant qui serait brillant en mathématiques mais qui aurait du mal à comprendre les nuances d’une conversation sociale.
L’important n’est peut-être pas la précision de la mesure, mais la tendance qu’elle révèle : une accélération constante des capacités, même si le rythme exact reste débattable.
Imaginez une partie de hockey où votre équipe s’améliore d’un niveau chaque saison. La première année, vous passez du niveau récréatif au niveau compétitif local. L’année suivante, vous atteignez le niveau régional, puis provincial, et ainsi de suite.
Au début, les progrès sont évidents : meilleur patinage, meilleur contrôle de la rondelle. Mais plus vous montez en niveau, plus les améliorations deviennent subtiles et complexes. C’est exactement ce qui se passe avec l’IA : les premiers progrès sont spectaculaires et facilement mesurables, mais les avancées ultérieures deviennent plus nuancées et difficiles à quantifier.
Nous sommes à l’aube d’une révolution cognitive sans précédent! Cette progression exponentielle des capacités de l’IA nous mène vers un futur où chaque aspect de notre vie sera optimisé et amélioré. Imaginez des assistants IA capables de résoudre des problèmes complexes en quelques secondes, de personnaliser l’éducation pour chaque élève, ou de découvrir des traitements médicaux révolutionnaires.
Cette évolution rapide pourrait nous conduire à une société post-pénurie où la créativité humaine, libérée des contraintes matérielles, s’épanouirait comme jamais. Les défis qui semblent insurmontables aujourd’hui - changements climatiques, maladies, inégalités - pourraient trouver leurs solutions grâce à ces superintelligences artificielles.
Cette course effrénée vers une intelligence artificielle toujours plus puissante soulève des questions troublantes. Si l’IA continue de progresser à ce rythme, combien de temps avant qu’elle ne dépasse complètement nos capacités de compréhension et de contrôle?
Les implications sociales sont tout aussi préoccupantes. Une IA qui progresse d’un écart-type par an signifie que de plus en plus d’emplois qualifiés deviendront automatisables. Que deviendront les travailleurs remplacés? La société risque de se diviser entre une élite qui contrôle ces technologies et une majorité qui en devient dépendante.
De plus, mesurer l’intelligence artificielle avec des métriques humaines comme le QI pourrait nous conduire à sous-estimer les risques réels et à négliger les aspects fondamentalement différents de l’intelligence artificielle.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈