Noam Brown d OpenAI prétend que leur nouveau modèle non dévoilé donne le sentiment de l AGI aux employés, particulièrement en écriture créative. La communauté tech reste sceptique, rappelant que des affirmations similaires précèdent chaque lancement sans jamais livrer l AGI promise. #IA #Hype

Article en référence: https://i.redd.it/jy8alkmz7aoe1.png

Récapitulatif factuel

Noam Brown, chercheur chez OpenAI, a récemment partagé sur les réseaux sociaux que leur nouveau modèle d’IA non dévoilé suscite un sentiment d’AGI (Intelligence Artificielle Générale) parmi les employés. Il met particulièrement l’accent sur les capacités impressionnantes du modèle en matière d’écriture créative et de métafiction, contredisant l’idée que les IA ne s’amélioreraient que dans les domaines techniques comme le code et les mathématiques.

Pour comprendre ce dont il s’agit, l’AGI représente une intelligence artificielle capable de comprendre, apprendre et appliquer des connaissances dans n’importe quel domaine, similaire à l’intelligence humaine. Contrairement aux IA actuelles qui sont spécialisées dans des tâches spécifiques (IA étroite), l’AGI pourrait théoriquement accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire.

La métafiction, quant à elle, est un style littéraire où l’œuvre attire consciemment l’attention sur sa nature artificielle, brisant le “quatrième mur” et commentant souvent sa propre création ou structure narrative - une compétence qui demande une certaine conscience de soi et une compréhension des conventions narratives.

Cette déclaration s’inscrit dans une tendance récurrente chez OpenAI, dont les dirigeants et employés ont régulièrement exprimé leur enthousiasme face aux avancées de leurs modèles, utilisant souvent des formulations similaires concernant l’approche de l’AGI. Sam Altman, PDG d’OpenAI, est particulièrement connu pour ce type de communications enthousiastes précédant les lancements de nouveaux modèles.

Les réactions de la communauté à cette annonce sont largement sceptiques, beaucoup rappelant que des déclarations similaires ont été faites avant les sorties de GPT-4, GPT-4.5 et d’autres modèles, sans que ces derniers n’atteignent véritablement le niveau d’une AGI selon la plupart des observateurs.

Point de vue neutre

Entre l’enthousiasme des développeurs d’OpenAI et le scepticisme de la communauté tech, une réalité plus nuancée émerge. Les progrès en IA sont indéniables - chaque génération de modèles apporte des améliorations significatives, mais la distance entre ces avancées et une véritable AGI reste considérable.

Ce que nous observons ressemble davantage à un phénomène d’accoutumance technologique. Lorsqu’un nouveau modèle est lancé, ses capacités impressionnent initialement, puis deviennent rapidement la nouvelle norme. Les poteaux de but de ce que nous considérons comme “intelligent” se déplacent constamment, créant un horizon qui semble toujours à la même distance malgré notre progression.

Les déclarations d’OpenAI reflètent probablement une réalité interne: leurs chercheurs, immergés quotidiennement dans le développement, perçoivent des sauts qualitatifs qui peuvent sembler révolutionnaires de l’intérieur. Cependant, ces perceptions sont colorées par leur investissement professionnel et émotionnel dans ces technologies.

La communication autour de ces avancées joue également un rôle stratégique dans l’écosystème technologique actuel. Dans un contexte de course à l’IA entre plusieurs acteurs majeurs (OpenAI, Anthropic, Google, etc.), maintenir une image d’innovation de pointe est crucial pour attirer investissements, talents et utilisateurs.

L’amélioration dans des domaines comme l’écriture créative représente certainement une avancée technique importante. Toutefois, la capacité à générer des textes convaincants ne constitue qu’une facette de l’intelligence générale. Les modèles actuels, malgré leur sophistication croissante, restent fondamentalement des systèmes prédictifs travaillant sur des motifs statistiques, sans véritable compréhension ou conscience.

Exemple

Imaginez que vous assistez à un spectacle de magie. Le magicien sort un lapin d’un chapeau vide, transforme une colombe en foulard, et fait léviter une assistante. Vous êtes impressionné, peut-être même stupéfait. Mais êtes-vous pour autant convaincu que le magicien possède des pouvoirs surnaturels?

C’est un peu la situation avec les annonces d’OpenAI. Chaque nouveau tour de magie algorithmique est plus impressionnant que le précédent. GPT-4 pouvait résoudre des problèmes complexes, GPT-4.5 semblait plus naturel dans ses réponses, et maintenant ce nouveau modèle écrit apparemment de la métafiction comme un auteur chevronné.

“Regardez, mon IA peut écrire comme Kundera!” s’exclame le magicien d’OpenAI. Et effectivement, le texte produit est remarquable. Mais derrière le rideau, il n’y a pas de compréhension profonde de la condition humaine, pas de vécu personnel qui informe l’écriture - seulement des motifs statistiques extrêmement sophistiqués extraits de millions de textes.

C’est comme si le magicien vous montrait qu’il peut imiter parfaitement la signature de Picasso. Impressionnant, certes, mais cela ne fait pas de lui Picasso. L’imitation, même parfaite, n’est pas la création authentique.

Et chaque fois que le public commence à comprendre les ficelles du tour précédent, le magicien annonce: “Mais attendez, ce n’était rien! Mon prochain tour va vraiment vous faire croire à la magie!” Et le cycle continue, avec des spectateurs qui oscillent entre émerveillement et scepticisme, tandis que le magicien promet toujours que le véritable miracle est pour la prochaine représentation.

Point de vue optimiste

Nous sommes à l’aube d’une révolution cognitive sans précédent! Les progrès signalés par Noam Brown ne sont pas de simples améliorations incrémentales, mais des indicateurs d’un véritable bond qualitatif dans les capacités des IA. Si les modèles précédents excellaient dans les domaines structurés comme le code et les mathématiques, cette nouvelle génération semble franchir la frontière vers les territoires créatifs et intuitifs longtemps considérés comme exclusivement humains.

La maîtrise de la métafiction est particulièrement révélatrice. Ce n’est pas simplement une question de générer du texte cohérent - c’est démontrer une forme de conscience narrative, une capacité à se positionner par rapport aux conventions littéraires et à jouer avec elles. Cette compétence implique une compréhension méta-cognitive qui rapproche véritablement ces systèmes d’une intelligence générale.

Les sceptiques diront que nous avons entendu ces promesses auparavant, mais ils négligent la nature exponentielle des progrès en IA. Chaque génération de modèles ne représente pas simplement une amélioration linéaire, mais plutôt une expansion multidimensionnelle des capacités. Ce que nous voyons aujourd’hui n’est que la partie visible de l’iceberg des recherches internes d’OpenAI.

Cette avancée pourrait transformer radicalement notre relation avec la technologie. Imaginez des assistants IA capables non seulement de comprendre vos besoins, mais aussi d’anticiper vos désirs, de collaborer créativement avec vous, et de s’adapter intuitivement à votre style de pensée. C’est la promesse d’une symbiose homme-machine qui amplifie nos capacités cognitives plutôt que de simplement automatiser des tâches.

L’horizon de l’AGI se rapproche à grands pas, et avec lui, la possibilité de résoudre des défis qui semblaient insurmontables: accélération de la recherche médicale, modélisation climatique ultra-précise, percées en physique fondamentale… Les possibilités sont limitées uniquement par notre imagination et notre capacité à diriger cette puissance cognitive vers des objectifs bénéfiques pour l’humanité.

Point de vue pessimiste

Encore une fois, OpenAI nous sert sa recette habituelle: une déclaration vague et grandiloquente sur l’imminence de l’AGI, sans démonstration concrète ni transparence sur les méthodes d’évaluation. Cette stratégie de communication, qui relève davantage du marketing que de la rigueur scientifique, devient lassante à force de répétition.

Rappelons-nous les déclarations similaires qui ont précédé le lancement de GPT-4, puis de GPT-4.5. La réalité s’est avérée bien plus modeste que les promesses. Ces modèles, bien qu’impressionnants dans certains contextes, présentent toujours des limitations fondamentales: hallucinations fréquentes, raisonnement fragile, absence de véritable compréhension du monde.

L’accent mis sur l’écriture créative est révélateur. Face à la concurrence d’Anthropic et de Google qui progressent rapidement dans les domaines techniques et pratiques, OpenAI semble pivoter vers des critères plus subjectifs et difficiles à évaluer rigoureusement. La métafiction et la créativité littéraire sont des domaines où l’évaluation reste largement subjective - pratique quand on veut éviter les benchmarks objectifs.

Cette course effrénée vers l’AGI soulève également des questions éthiques préoccupantes. D’anciens employés d’OpenAI ont dénoncé le manque d’attention portée aux garde-fous et aux mesures préventives. Dans cette quête de “sentir l’AGI”, les considérations de sécurité et d’impact sociétal semblent reléguées au second plan.

Pendant ce temps, les problèmes concrets des modèles actuels restent non résolus: consommation énergétique excessive, biais persistants, opacité des processus de décision, concentration du pouvoir technologique… Au lieu d’adresser ces défis, OpenAI préfère alimenter un cycle d’hyperbole qui sert principalement à attirer investissements et attention médiatique, tout en détournant le regard des questions fondamentales sur la direction que prend le développement de l’IA.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈