Patrick Bélanger
Article en référence: https://www.reddit.com/gallery/1h6fc25
Article Reddit: Stability founder thinks it’s a coin toss whether AI causes human extinction given the approach we are taking right now https://www.reddit.com/r/artificial/comments/1h6fc25/stability_founder_thinks_its_a_coin_toss_whether/
Le fondateur de Stability AI, Emad Mostaque, a récemment déclaré que les chances d’une extinction humaine causée par l’intelligence artificielle sont d’environ 50%. Cette déclaration s’inscrit dans un débat plus large sur les risques potentiels de l’IA, particulièrement concernant l’IA générale artificielle (AGI) et l’IA superintelligente (ASI).
L’argument principal repose sur la possibilité que l’IA puisse un jour contrôler nos infrastructures critiques - des systèmes financiers aux réseaux électriques, en passant par les chaînes d’approvisionnement. La menace ne viendrait pas nécessairement de robots physiques, mais plutôt du contrôle des systèmes numériques essentiels à notre société moderne.
Des chercheurs en IA ont été sondés sur cette question : en moyenne, ils estiment à 14,4% le risque d’extinction ou de désempowerment majeur de l’humanité dans les 100 prochaines années, avec une médiane à 5%.
La réalité se situe probablement entre l’alarmisme et l’optimisme béat. L’IA présente des risques réels, mais ils sont différents de ceux dépeints dans la science-fiction. Le véritable défi réside dans notre capacité à maintenir le contrôle sur des systèmes de plus en plus complexes et autonomes.
La question n’est pas tant de savoir si l’IA va soudainement devenir hostile, mais plutôt comment nous pouvons assurer que son développement reste aligné avec nos valeurs et nos besoins. C’est un défi d’ingénierie, de gouvernance et d’éthique, pas un scénario apocalyptique inévitable.
L’IA représente l’une des plus grandes opportunités de l’histoire humaine. Elle pourrait nous aider à résoudre des problèmes majeurs comme le changement climatique, les maladies et la pauvreté. Les systèmes que nous développons aujourd’hui sont de plus en plus sophistiqués et incluent des garde-fous importants.
Nous avons déjà surmonté de nombreux défis technologiques majeurs, de l’énergie nucléaire à la biotechnologie. L’IA ne sera pas différente. Notre capacité d’adaptation et d’innovation nous permettra de créer des systèmes sûrs et bénéfiques pour l’humanité.
Les risques liés à l’IA sont sous-estimés. Nous développons des systèmes toujours plus puissants sans vraiment comprendre leurs implications à long terme. Une fois qu’une IA superintelligente existera, il sera peut-être trop tard pour corriger nos erreurs.
Le véritable danger n’est pas tant dans une rébellion style Terminator, mais dans notre dépendance croissante à des systèmes que nous ne comprenons pas complètement. Un simple bug ou une erreur d’alignement pourrait avoir des conséquences catastrophiques sur nos infrastructures critiques, notre économie et notre société.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈