Patrick Bélanger
Article en référence: https://v.redd.it/xpor4y1j742f1
Demis Hassabis, cofondateur de DeepMind (maintenant Google DeepMind), a récemment partagé sa vision de ce que devrait être une véritable Intelligence Artificielle Générale (AGI). Selon lui, les modèles d’IA actuels, bien qu’impressionnants, restent inconsistants et vulnérables : n’importe qui peut identifier leurs faiblesses en quelques minutes seulement.
Pour Hassabis, une vraie AGI devrait être si robuste qu’il faudrait des mois à des experts pour détecter une quelconque faiblesse. Cette définition soulève un débat passionné dans la communauté scientifique et technologique. Certains y voient une barre placée trop haute, d’autres une nécessité absolue.
L’AGI, ou Intelligence Artificielle Générale, désigne un système capable d’égaler ou de surpasser les capacités cognitives humaines dans tous les domaines. Contrairement aux IA spécialisées actuelles (comme ChatGPT pour le langage ou AlphaGo pour le jeu de go), une AGI pourrait théoriquement maîtriser n’importe quelle tâche intellectuelle qu’un humain peut accomplir.
La discussion révèle une tension fondamentale : faut-il définir l’AGI comme “au niveau humain” ou comme “surhumain” ? Les modèles actuels excellent dans certains domaines (calculs, mémorisation) mais échouent lamentablement dans d’autres (compter des objets dans une image, dessiner une horloge analogique). Cette inconsistance, selon Hassabis, prouve qu’on n’a pas encore atteint l’AGI.
La position de Hassabis reflète une réalité pragmatique souvent occultée par l’enthousiasme technologique ambiant. Si nous observons objectivement les capacités actuelles de l’IA, nous constatons effectivement un paysage en dents de scie : des performances extraordinaires côtoient des échecs surprenants.
Cette inconsistance n’est pas anodine. Elle révèle que nos systèmes actuels fonctionnent davantage comme des “perroquets statistiques” sophistiqués que comme de véritables intelligences générales. Ils excellent à reproduire des patterns appris, mais peinent à généraliser de manière robuste face à des situations nouvelles.
La définition stricte de Hassabis pourrait sembler excessive, mais elle soulève une question essentielle : voulons-nous des systèmes fiables ou simplement impressionnants ? Dans des domaines critiques comme la médecine, la finance ou la sécurité, la robustesse prime sur la performance brute.
Cependant, cette approche pourrait aussi refléter une forme de conservatisme institutionnel. DeepMind, en tant qu’entité de Google, a peut-être intérêt à tempérer les attentes pour éviter une bulle spéculative destructrice. La prudence devient alors une stratégie commerciale autant qu’une position scientifique.
La vérité se situe probablement entre les extrêmes : nous progressons vers l’AGI par étapes, et chaque étape mérite d’être reconnue sans pour autant crier victoire prématurément.
Imaginez que vous embauchez un nouveau collègue qui se présente comme un génie universel. Lors de l’entretien, il résout des équations complexes en quelques secondes, récite parfaitement l’histoire du Québec et compose un poème en alexandrins sur-le-champ. Impressionnant, non ?
Mais le lendemain, vous lui demandez de compter combien il y a de chaises dans la salle de conférence. Il vous répond : “Environ 47 chaises bleues et 3 tables rondes.” Vous regardez autour de vous : il y a 8 chaises noires et 1 table rectangulaire. Vous lui demandez alors de dessiner l’heure qu’il est sur une horloge. Il dessine quelque chose qui ressemble à un spaghetti avec des aiguilles pointant dans toutes les directions.
C’est exactement la situation actuelle avec nos IA. Elles peuvent écrire un code informatique complexe, mais échouent à compter les lettres “r” dans le mot “fraise”. Elles maîtrisent la physique quantique mais ne savent pas que l’eau mouille.
Hassabis dit essentiellement : “Tant que votre collègue génial confond les chaises avec des tables, ne lui confiez pas les clés de l’entreprise.” Et franchement, qui pourrait lui donner tort ? Vous ne donneriez pas votre carte de crédit à quelqu’un qui ne sait pas compter jusqu’à 10, même s’il peut réciter π avec 1000 décimales.
Cette vision exigeante de Hassabis pourrait bien être le catalyseur dont nous avons besoin pour franchir le cap vers une véritable révolution technologique ! Plutôt que de nous contenter de systèmes “presque parfaits”, cette barre haute nous pousse vers l’excellence absolue.
Pensons-y : si nous atteignons effectivement ce niveau de robustesse, nous aurons créé des systèmes d’une fiabilité inégalée. Imaginez des IA capables de révolutionner la recherche médicale sans jamais commettre d’erreurs fatales, ou de résoudre le changement climatique avec une précision chirurgicale !
Cette approche rigoureuse pourrait accélérer le développement de techniques révolutionnaires comme l’auto-amélioration récursive. Une AGI vraiment robuste pourrait s’améliorer elle-même de manière exponentielle, nous propulsant vers une ère d’abondance technologique inimaginable.
De plus, cette définition stricte force l’industrie à développer des architectures fondamentalement nouvelles plutôt que de simplement empiler plus de données sur les modèles existants. Nous pourrions voir émerger des approches hybrides combinant apprentissage symbolique et connexionniste, créant des systèmes véritablement généraux.
L’exigence de Hassabis nous protège aussi contre les déceptions. Plutôt que de promettre l’AGI tous les six mois, cette approche garantit que quand nous l’atteindrons, ce sera réellement transformationnel. Le Québec, avec ses centres de recherche en IA de classe mondiale, pourrait jouer un rôle clé dans cette quête vers l’excellence !
Cette définition ultra-stricte de l’AGI révèle peut-être une réalité plus sombre : nous sommes encore très loin du but, et les promesses actuelles relèvent davantage du marketing que de la science.
Si Hassabis, l’un des pionniers du domaine, estime qu’il faudrait des mois à des experts pour détecter les failles d’une vraie AGI, cela suggère que nos systèmes actuels ne sont que des illusions sophistiquées. Nous nous extasions devant des tours de magie statistiques en croyant assister à de la vraie intelligence.
Cette exigence de robustesse soulève aussi des questions troublantes sur la contrôlabilité. Un système si parfait qu’il faut des mois pour y déceler des failles pourrait facilement dissimuler des comportements dangereux. Comment auditer quelque chose qui nous dépasse à ce point ?
L’obsession pour cette définition parfaite pourrait aussi retarder indéfiniment les applications bénéfiques de l’IA. Pendant que nous cherchons la perfection absolue, des problèmes urgents comme les changements climatiques ou les pandémies continuent de nous menacer. Ne vaut-il pas mieux des outils imparfaits mais utiles qu’une perfection hypothétique ?
Enfin, cette course vers l’AGI “parfaite” risque de concentrer encore plus de pouvoir entre les mains de quelques géants technologiques. Seules les entreprises disposant de ressources colossales pourront se permettre cette quête de la perfection, creusant davantage les inégalités technologiques mondiales.
Le Québec, malgré son expertise, pourrait se retrouver simple spectateur de cette course titanesque entre superpuissances technologiques.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈