Patrick Bélanger
Article en référence: https://www.lesswrong.com/posts/No5JpRCHzBrWA4jmS/q-and-a-with-shane-legg-on-risks-from-ai
Il y a 14 ans, Shane Legg, aujourdâhui scientifique en chef de lâAGI chez Google, a fait une prĂ©diction audacieuse : lâAGI (Intelligence Artificielle GĂ©nĂ©rale) arriverait en 2028. Aujourdâhui, il maintient toujours cette prĂ©diction, y ajoutant une estimation troublante dâun risque de 5 Ă 50% dâextinction humaine dans lâannĂ©e suivante.
LâAGI, contrairement Ă lâIA actuelle qui est spĂ©cialisĂ©e dans des tĂąches prĂ©cises, serait capable dâaccomplir nâimporte quelle tĂąche intellectuelle quâun humain peut faire. Câest diffĂ©rent de la âconscienceâ ou de la âsensibilitĂ©â - il sâagit plutĂŽt dâune capacitĂ© gĂ©nĂ©rale Ă rĂ©soudre des problĂšmes de façon autonome.
Christopher Manning, directeur du laboratoire dâIA de Stanford, offre un contrepoint important. Il compare lâenthousiasme actuel aux prĂ©dictions similaires des annĂ©es 1970-1980, suggĂ©rant que nous sommes encore loin dâune vĂ©ritable AGI.
La rĂ©alitĂ© se situe probablement entre les prĂ©dictions alarmistes et lâoptimisme dĂ©bridĂ©. LâIA progresse rapidement, mais de façon plus nuancĂ©e que les manchettes ne le suggĂšrent. Les systĂšmes actuels, bien quâimpressionnants, restent des outils de reconnaissance de motifs sophistiquĂ©s plutĂŽt que des entitĂ©s vĂ©ritablement âintelligentesâ.
La transformation sera graduelle, avec des impacts significatifs sur le marchĂ© du travail et la sociĂ©tĂ©, mais sans nĂ©cessairement mener Ă des scĂ©narios catastrophiques. Lâadaptation de nos institutions et de nos cadres rĂ©glementaires sera cruciale pour naviguer cette transition.
Imaginez un enfant qui apprend Ă faire du vĂ©lo. Au dĂ©but, il a besoin de roues dâentraĂźnement (comme nos IA actuelles qui nĂ©cessitent des paramĂštres prĂ©cis). LâAGI serait comme un enfant qui non seulement maĂźtrise le vĂ©lo, mais comprend aussi comment lâentretenir, peut lâadapter Ă diffĂ©rents terrains, et mĂȘme enseigner Ă dâautres comment faire du vĂ©lo.
Mais avoir cette capacité ne signifie pas automatiquement vouloir dominer tous les cyclistes ou transformer tous les véhicules en vélos!
LâAGI reprĂ©sente la prochaine grande rĂ©volution technologique, comparable Ă lâinvention de lâĂ©lectricitĂ© ou dâInternet. Elle pourrait rĂ©soudre nos plus grands dĂ©fis : changements climatiques, maladies, pauvretĂ©. Les systĂšmes actuels montrent dĂ©jĂ des capacitĂ©s remarquables dans des domaines spĂ©cifiques.
Cette technologie augmentera nos capacités plutÎt que de nous remplacer, créant de nouvelles opportunités professionnelles et améliorant notre qualité de vie. La collaboration homme-machine deviendra la norme, permettant des avancées sans précédent dans tous les domaines.
Le dĂ©veloppement prĂ©cipitĂ© de lâAGI, poussĂ© par la compĂ©tition entre grandes entreprises technologiques, pourrait avoir des consĂ©quences dĂ©sastreuses. Sans cadre Ă©thique robuste, une AGI pourrait optimiser ses objectifs de maniĂšre imprĂ©vue et dangereuse.
Le risque nâest pas tant dans une rĂ©volte des machines que dans notre incapacitĂ© Ă contrĂŽler un systĂšme super-intelligent dont les actions pourraient avoir des consĂ©quences involontaires mais catastrophiques. La perte dâemplois massive et la concentration du pouvoir entre les mains de quelques entreprises tech reprĂ©sentent Ă©galement des menaces sĂ©rieuses pour notre sociĂ©tĂ©.
Si vous n'ĂȘtes pas redirigĂ© automatiquement, đ cliquez ici đ