Patrick Bélanger
Article en référence: https://www.reddit.com/gallery/1irxyk1
Ilya Sutskever, co-fondateur d’OpenAI et chercheur renommé en intelligence artificielle, lève actuellement plus d’un milliard de dollars pour sa nouvelle entreprise SSI (Safe Superintelligence Institute). Cette levée de fonds valorise l’entreprise à plus de 30 milliards de dollars, soit une multiplication par six de sa valeur initiale de 5 milliards.
SSI se distingue des autres entreprises d’IA par son approche unique : plutôt que de développer des produits intermédiaires comme ChatGPT, l’entreprise vise directement le développement d’une superintelligence sûre. Cette stratégie “tout-en-un” contraste avec l’approche incrémentale adoptée par des concurrents comme OpenAI, Anthropic ou Google DeepMind.
La superintelligence artificielle (ASI) représente un niveau d’intelligence dépassant significativement les capacités humaines dans tous les domaines. C’est un objectif plus ambitieux que l’intelligence artificielle générale (AGI), qui vise à égaler l’intelligence humaine.
La valorisation spectaculaire de SSI soulève des questions légitimes sur l’état actuel du marché de l’IA. D’un côté, la réputation d’Ilya Sutskever et son expertise indéniable justifient l’intérêt des investisseurs. De l’autre, l’absence de produit tangible et la stratégie risquée de “tout miser sur la superintelligence” rappellent les excès de la bulle internet.
La réalité se situe probablement entre l’euphorie des investisseurs et le scepticisme des critiques. SSI bénéficie vraisemblablement d’avancées significatives, montrées en privé aux investisseurs, tout en maintenant une discrétion totale publiquement.
Imaginez un grand chef cuisinier qui, au lieu d’ouvrir un restaurant et de servir des plats au quotidien, décide de s’enfermer dans son laboratoire pour créer LE plat parfait. Pendant que ses concurrents développent leurs menus, perfectionnent leurs recettes et servent des clients, lui mise tout sur la création d’une recette révolutionnaire qui changerait à jamais l’art culinaire.
Certains clients fortunés ont peut-être eu un aperçu de ses expériences et sont tellement impressionnés qu’ils sont prêts à investir des sommes colossales. Mais pour le public, c’est comme si le chef travaillait derrière des rideaux de fumée.
SSI pourrait représenter le prochain grand bond en avant de l’IA. Sutskever, avec sa vision claire et son approche non conventionnelle, pourrait avoir identifié un chemin direct vers la superintelligence que les autres ont manqué. Sa concentration exclusive sur la sécurité et son refus de se disperser dans des produits commerciaux pourraient s’avérer être exactement ce dont nous avons besoin.
Cette valorisation pourrait même sembler modeste si SSI réussit à développer la première superintelligence sûre. L’impact sur l’humanité serait incommensurable, transformant fondamentalement notre société et résolvant potentiellement nos plus grands défis.
Cette valorisation astronomique sans produit tangible ressemble dangereusement à une bulle spéculative. L’histoire nous a montré que les promesses grandioses de révolution technologique finissent souvent en désillusions coûteuses.
La stratégie du “tout ou rien” de SSI comporte des risques majeurs. Sans étapes intermédiaires pour valider leur approche, l’entreprise pourrait brûler des milliards en poursuivant un objectif potentiellement irréalisable. De plus, la course à la superintelligence, même avec les meilleures intentions, pourrait précipiter le développement d’une IA dangereuse si la sécurité n’est pas parfaitement maîtrisée.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈