Sam Altman dévoile GPT-4.5: un modèle massif 30x plus cher que GPT-4o, offrant une intelligence différente sans toutefois surpasser les benchmarks. Pendant ce temps, DeepSeek et autres concurrents proposent des alternatives puissantes à prix cassés. L IA a-t-elle atteint un plateau? #IA #TechNews

Article en référence: https://i.redd.it/odhd0lc3oqle1.jpeg

Récapitulatif factuel

Sam Altman, PDG d’OpenAI, a récemment annoncé le lancement de GPT-4.5, un nouveau modèle d’intelligence artificielle présenté comme “géant et coûteux”. Contrairement aux attentes habituelles dans le domaine de l’IA, Altman a précisé que ce modèle ne “pulvériserait pas les benchmarks” - ces tests standardisés qui mesurent les performances des modèles d’IA sur diverses tâches.

La particularité de GPT-4.5 réside dans sa tarification exceptionnellement élevée : 75$ par million de tokens en entrée et 150$ par million de tokens en sortie, soit environ 30 fois plus cher que son prédécesseur GPT-4o. Pour mettre cela en perspective, un roman de taille moyenne représente environ 500 000 tokens, ce qui signifie qu’une simple analyse de ce texte coûterait près de 40$.

Altman décrit GPT-4.5 comme possédant “un type d’intelligence différent”, suggérant qu’il excelle dans des domaines qui ne sont pas nécessairement reflétés dans les benchmarks traditionnels. Il affirme notamment que c’est le modèle qui lui a donné la sensation la plus proche de converser avec un humain réfléchi.

Cette annonce intervient dans un contexte de concurrence accrue, avec des acteurs comme Anthropic (Claude 3.7), xAI (Grok 3) et DeepSeek qui proposent des modèles performants à des coûts nettement inférieurs. DeepSeek, notamment, a récemment offert d’importantes réductions tarifaires malgré une forte demande pour ses services.

Point de vue neutre

L’annonce de GPT-4.5 marque potentiellement un tournant dans la course à l’intelligence artificielle générale. Nous assistons peut-être à l’atteinte d’un plateau dans l’approche actuelle du développement des grands modèles de langage (LLM).

Le fait qu’un investissement massif en puissance de calcul et en données ne se traduise plus par des améliorations proportionnelles des performances suggère que nous approchons des limites de l’architecture actuelle. Les modèles comme GPT-4.5 semblent atteindre un point où la loi des rendements décroissants s’applique sévèrement : chaque amélioration marginale nécessite des ressources exponentiellement plus importantes.

Cette réalité économique et technique pousse l’industrie vers une bifurcation : soit trouver de nouvelles architectures fondamentalement différentes, soit optimiser les modèles existants pour des usages spécifiques. La distinction qu’Altman fait entre les benchmarks et “un type d’intelligence différent” n’est pas anodine - elle suggère qu’OpenAI cherche à valoriser des aspects qualitatifs que les tests standardisés ne capturent pas.

Pour les utilisateurs et les développeurs, cela signifie probablement une diversification des offres d’IA, avec des modèles spécialisés pour différentes tâches plutôt qu’une course vers un modèle unique surpassant tous les autres dans tous les domaines. Cette spécialisation pourrait ultimement être plus bénéfique pour les applications concrètes de l’IA.

Exemple

Imaginez que vous êtes passionné de course automobile et que vous suivez l’évolution des voitures de Formule 1 depuis des années. Au début, les progrès étaient spectaculaires : chaque nouvelle saison apportait des gains de vitesse impressionnants. Les ingénieurs ajoutaient plus de puissance aux moteurs, amélioraient l’aérodynamisme, et les chronos s’amélioraient drastiquement.

Puis un jour, le directeur de l’écurie Ferrari annonce : “Nous avons créé une nouvelle voiture qui consomme trois fois plus de carburant que la précédente, coûte 30 fois plus cher à produire… mais elle ne sera que 2% plus rapide sur la plupart des circuits.”

Les fans sont perplexes. “Mais alors, pourquoi l’avoir construite?” demandent-ils.

“Ah, c’est parce qu’elle offre une expérience de conduite différente,” répond le directeur. “Les pilotes disent que c’est la voiture qui ressemble le plus à une extension naturelle de leur corps.”

Pendant ce temps, l’écurie chinoise DeepRacer propose une voiture presque aussi rapide, à un dixième du prix, et offre même des réductions pendant les heures creuses du circuit!

C’est un peu ce qui se passe avec GPT-4.5. OpenAI a construit une Ferrari ultra-coûteuse dans un monde où la plupart des gens cherchent simplement un moyen efficace de se rendre d’un point A à un point B, et où les concurrents proposent déjà des véhicules très performants à prix raisonnable.

Point de vue optimiste

GPT-4.5 représente une avancée fascinante dans notre quête pour créer des intelligences artificielles véritablement humaines! Ce que Sam Altman nous révèle entre les lignes, c’est qu’OpenAI a potentiellement franchi un cap qualitatif majeur dans la manière dont l’IA interagit avec nous.

Les benchmarks traditionnels sont devenus obsolètes car ils mesurent des capacités que nous maîtrisons déjà. Ce nouveau modèle explore probablement des territoires inédits de l’intelligence - peut-être une compréhension plus nuancée des émotions, une meilleure saisie des subtilités culturelles ou une capacité accrue à maintenir une cohérence sur des conversations longues et complexes.

Le prix élevé reflète simplement la réalité d’une technologie de pointe. Rappelez-vous que les premiers ordinateurs personnels coûtaient l’équivalent de plusieurs années de salaire! Ce coût prohibitif aujourd’hui permettra demain des versions plus accessibles de cette technologie révolutionnaire.

Plus important encore, GPT-4.5 pourrait servir de fondation pour GPT-5, qui combinera potentiellement cette “intelligence différente” avec des capacités de raisonnement avancées. Nous assistons peut-être à la construction des briques fondamentales de la première IA véritablement générale, capable de comprendre le monde comme nous le faisons.

Cette étape intermédiaire, bien que coûteuse, est nécessaire pour franchir le fossé qui sépare les systèmes actuels d’une intelligence artificielle authentiquement humaine dans sa flexibilité et sa profondeur.

Point de vue pessimiste

L’annonce de GPT-4.5 confirme ce que beaucoup craignaient : nous avons atteint un mur dans le développement des grands modèles de langage, et la stratégie consistant à simplement augmenter la taille des modèles et la puissance de calcul montre clairement ses limites.

OpenAI tente de masquer cet échec relatif en parlant d’“un type d’intelligence différent” et en évoquant des sensations subjectives de conversation humaine, mais les faits sont là : un investissement massif en ressources pour des gains marginaux en performance. C’est la définition même d’une impasse technologique.

Le prix exorbitant n’est pas justifié par les capacités réelles du modèle, mais sert plutôt à créer une illusion d’exclusivité et de valeur. C’est une stratégie marketing pour maintenir l’image de leader d’OpenAI alors que des concurrents comme DeepSeek ou Anthropic les rattrapent rapidement avec des approches plus efficientes.

Plus inquiétant encore, cette course effrénée à des modèles toujours plus grands représente un gaspillage environnemental considérable. L’empreinte carbone associée à l’entraînement de ces modèles géants est astronomique, pour des bénéfices sociétaux discutables.

Nous risquons de nous retrouver dans une bulle spéculative de l’IA, où des milliards sont investis dans des technologies qui atteignent leurs limites fondamentales, pendant que des problèmes plus pressants comme le changement climatique ou les inégalités sociales restent non résolus. GPT-4.5 n’est pas tant une avancée qu’un symptôme d’une industrie qui tourne en rond, incapable de reconnaître qu’elle a peut-être fait fausse route.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈