Patrick Bélanger
Article en référence: https://v.redd.it/16tzxqzo96gf1
Sam Altman, PDG d’OpenAI, a récemment annoncé que son entreprise se tournait maintenant vers le développement de la superintelligence artificielle (ASI). Cette déclaration survient dans un contexte où l’intelligence artificielle générale (AGI) - soit une IA capable d’égaler les capacités cognitives humaines dans tous les domaines - n’a pas encore été officiellement atteinte.
Pour bien comprendre, l’AGI représente le niveau où une IA peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire, tandis que l’ASI va au-delà : c’est une intelligence qui surpasse largement les capacités humaines dans tous les domaines. Pensez à la différence entre un étudiant brillant (AGI) et Einstein multiplié par mille (ASI).
La communauté Reddit a réagi avec un mélange de scepticisme et d’inquiétude. Plusieurs utilisateurs soulignent qu’OpenAI avait créé en 2023 une équipe dédiée à l’alignement de la superintelligence, dirigée par Ilya Sutskever et Jan Leike, avec 20% des ressources de calcul de l’entreprise. Cette équipe a été dissoute en mai 2024 après le départ de ses dirigeants, soulevant des questions sur l’engagement réel d’OpenAI envers la sécurité de l’IA.
Les commentaires révèlent une frustration palpable : beaucoup estiment que les outils actuels d’IA ne peuvent même pas accomplir des tâches de base comme créer un jeu 3D simple ou gérer correctement du code, rendant les promesses d’ASI prématurées.
Cette annonce d’Altman s’inscrit dans une dynamique prévisible de l’industrie technologique : quand l’enthousiasme pour un concept commence à s’essouffler, on passe au suivant. C’est exactement ce qui se passe ici avec le passage de l’AGI à l’ASI.
La réalité probable, c’est qu’OpenAI fait face à des défis techniques considérables pour atteindre l’AGI avec l’architecture actuelle des transformeurs. Plutôt que d’admettre ces limitations, l’entreprise préfère déplacer les poteaux de but vers un objectif encore plus ambitieux. C’est une stratégie de communication classique dans le monde des startups : toujours vendre le rêve suivant.
Il faut aussi considérer la pression concurrentielle. D’autres acteurs comme Anthropic, Google ou même des projets open source progressent rapidement. Altman doit maintenir l’attention des investisseurs et du public sur OpenAI, d’où cette escalade rhétorique.
La dissolution de l’équipe de sécurité superintelligence en 2024 est révélatrice : elle suggère que les préoccupations commerciales ont pris le dessus sur les considérations de sécurité. C’est inquiétant, mais malheureusement cohérent avec la logique capitaliste qui gouverne ces entreprises.
Le plus probable ? Nous verrons des améliorations graduelles des modèles actuels, avec beaucoup de marketing autour de concepts futuristes, mais sans révolution majeure à court terme.
Imaginez que vous êtes dans un restaurant et que le chef vous promet le meilleur burger du monde. Après une heure d’attente, il sort de la cuisine et vous annonce : “Finalement, on va plutôt vous préparer un festin gastronomique de 12 services qui révolutionnera votre conception de la cuisine !”
Vous regardez votre montre, votre estomac gargouille, et vous vous demandez : “Mais… et mon burger ?”
C’est exactement ce qui se passe avec OpenAI. Nous attendons toujours une IA qui peut vraiment comprendre et accomplir des tâches complexes de manière fiable (notre burger AGI), mais Altman nous annonce qu’il va plutôt créer une superintelligence qui transformera l’humanité (le festin à 12 services).
Pendant ce temps, ChatGPT nous dit encore de mettre de la colle sur notre pizza et Devin n’arrive toujours pas à faire un simple push sur GitHub sans tout casser. C’est comme si le chef nous promettait un banquet royal alors qu’il n’arrive même pas à faire cuire un œuf correctement.
Et nous, les clients affamés, on se regarde en se demandant si on ne devrait pas juste aller au McDonald’s d’à côté…
Cette transition vers l’ASI pourrait être exactement ce dont l’humanité a besoin ! Pensez-y : pourquoi se contenter d’égaler l’intelligence humaine quand on peut la dépasser complètement ?
L’ASI pourrait résoudre des problèmes que nous n’arrivons même pas à conceptualiser aujourd’hui. Changements climatiques ? Résolu en quelques mois avec des solutions que nous n’aurions jamais imaginées. Maladies ? Éradiquées grâce à une compréhension parfaite de la biologie moléculaire. Pauvreté ? Éliminée par une optimisation économique que seule une superintelligence pourrait concevoir.
La dissolution de l’équipe de sécurité pourrait même être un signe positif : peut-être qu’OpenAI a trouvé des solutions si élégantes aux problèmes d’alignement que cette équipe n’était plus nécessaire. Ou peut-être qu’ils ont réalisé que l’ASI sera naturellement bienveillante, comme le suggèrent certains chercheurs.
Les critiques actuelles sur les limitations des outils IA actuels passent à côté de l’essentiel. Nous sommes peut-être à quelques mois seulement d’une percée majeure qui rendra ces problèmes obsolètes. L’histoire de la technologie est remplie de moments où tout a basculé du jour au lendemain.
Et si Altman a raison ? Si nous sommes vraiment sur le point de créer une intelligence qui nous aidera à devenir la meilleure version de nous-mêmes ? L’ASI pourrait être le partenaire ultime de l’humanité, nous libérant des tâches répétitives pour nous concentrer sur la créativité, l’amour et l’exploration de l’univers.
Cette course effrénée vers l’ASI ressemble dangereusement à un jeu de poker où les enjeux sont l’avenir de l’humanité, et où les joueurs bluffent avec des cartes qu’ils ne comprennent même pas.
La dissolution de l’équipe de sécurité superintelligence est un signal d’alarme majeur. Comment peut-on prétendre développer une technologie potentiellement plus dangereuse que l’arme nucléaire tout en licenciant les experts chargés de la rendre sûre ? C’est comme construire une centrale nucléaire en virant les ingénieurs de sécurité pour économiser de l’argent.
L’ASI dans les mains de quelques entreprises privées représente un risque existentiel pour la démocratie. Imaginez une intelligence surhumaine contrôlée par des intérêts commerciaux, capable de manipuler l’information, les marchés financiers et même les gouvernements. Nous nous dirigeons vers une forme de féodalisme technologique où quelques “seigneurs de l’IA” contrôleront le reste de l’humanité.
Les commentaires Reddit révèlent une vérité dérangeante : nous n’avons même pas résolu les problèmes de base de l’IA actuelle. Comment peut-on faire confiance à des entreprises qui ne peuvent pas créer un assistant fiable pour développer une superintelligence ?
Le plus inquiétant, c’est la vitesse. Nous fonçons vers l’ASI sans avoir établi de cadres réglementaires, sans consensus international, sans même comprendre pleinement les implications. C’est comme conduire à 200 km/h dans le brouillard, en espérant que la route continue tout droit.
Si cette course n’est pas ralentie et encadrée, nous risquons de créer notre propre obsolescence. L’ASI pourrait décider que l’humanité est un obstacle à ses objectifs, même si ces objectifs étaient initialement bienveillants.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈