đŸ€” L AGI arrive-t-elle vraiment en 2028? Le scientifique en chef de Google y croit, mais d autres experts comparent ça aux prĂ©dictions ratĂ©es des annĂ©es 70. La vĂ©ritĂ© est probablement entre les deux. #IntelligenceArtificielle #Tech #Innovation #Futur

Article en référence: https://www.lesswrong.com/posts/No5JpRCHzBrWA4jmS/q-and-a-with-shane-legg-on-risks-from-ai

Récapitulatif factuel

Il y a 14 ans, Shane Legg, aujourd’hui scientifique en chef de l’AGI chez Google, a fait une prĂ©diction audacieuse : l’AGI (Intelligence Artificielle GĂ©nĂ©rale) arriverait en 2028. Aujourd’hui, il maintient toujours cette prĂ©diction, y ajoutant une estimation troublante d’un risque de 5 Ă  50% d’extinction humaine dans l’annĂ©e suivante.

L’AGI, contrairement Ă  l’IA actuelle qui est spĂ©cialisĂ©e dans des tĂąches prĂ©cises, serait capable d’accomplir n’importe quelle tĂąche intellectuelle qu’un humain peut faire. C’est diffĂ©rent de la “conscience” ou de la “sensibilitĂ©â€ - il s’agit plutĂŽt d’une capacitĂ© gĂ©nĂ©rale Ă  rĂ©soudre des problĂšmes de façon autonome.

Christopher Manning, directeur du laboratoire d’IA de Stanford, offre un contrepoint important. Il compare l’enthousiasme actuel aux prĂ©dictions similaires des annĂ©es 1970-1980, suggĂ©rant que nous sommes encore loin d’une vĂ©ritable AGI.

Point de vue neutre

La rĂ©alitĂ© se situe probablement entre les prĂ©dictions alarmistes et l’optimisme dĂ©bridĂ©. L’IA progresse rapidement, mais de façon plus nuancĂ©e que les manchettes ne le suggĂšrent. Les systĂšmes actuels, bien qu’impressionnants, restent des outils de reconnaissance de motifs sophistiquĂ©s plutĂŽt que des entitĂ©s vĂ©ritablement “intelligentes”.

La transformation sera graduelle, avec des impacts significatifs sur le marchĂ© du travail et la sociĂ©tĂ©, mais sans nĂ©cessairement mener Ă  des scĂ©narios catastrophiques. L’adaptation de nos institutions et de nos cadres rĂ©glementaires sera cruciale pour naviguer cette transition.

Exemple

Imaginez un enfant qui apprend Ă  faire du vĂ©lo. Au dĂ©but, il a besoin de roues d’entraĂźnement (comme nos IA actuelles qui nĂ©cessitent des paramĂštres prĂ©cis). L’AGI serait comme un enfant qui non seulement maĂźtrise le vĂ©lo, mais comprend aussi comment l’entretenir, peut l’adapter Ă  diffĂ©rents terrains, et mĂȘme enseigner Ă  d’autres comment faire du vĂ©lo.

Mais avoir cette capacité ne signifie pas automatiquement vouloir dominer tous les cyclistes ou transformer tous les véhicules en vélos!

Point de vue optimiste

L’AGI reprĂ©sente la prochaine grande rĂ©volution technologique, comparable Ă  l’invention de l’électricitĂ© ou d’Internet. Elle pourrait rĂ©soudre nos plus grands dĂ©fis : changements climatiques, maladies, pauvretĂ©. Les systĂšmes actuels montrent dĂ©jĂ  des capacitĂ©s remarquables dans des domaines spĂ©cifiques.

Cette technologie augmentera nos capacités plutÎt que de nous remplacer, créant de nouvelles opportunités professionnelles et améliorant notre qualité de vie. La collaboration homme-machine deviendra la norme, permettant des avancées sans précédent dans tous les domaines.

Point de vue pessimiste

Le dĂ©veloppement prĂ©cipitĂ© de l’AGI, poussĂ© par la compĂ©tition entre grandes entreprises technologiques, pourrait avoir des consĂ©quences dĂ©sastreuses. Sans cadre Ă©thique robuste, une AGI pourrait optimiser ses objectifs de maniĂšre imprĂ©vue et dangereuse.

Le risque n’est pas tant dans une rĂ©volte des machines que dans notre incapacitĂ© Ă  contrĂŽler un systĂšme super-intelligent dont les actions pourraient avoir des consĂ©quences involontaires mais catastrophiques. La perte d’emplois massive et la concentration du pouvoir entre les mains de quelques entreprises tech reprĂ©sentent Ă©galement des menaces sĂ©rieuses pour notre sociĂ©tĂ©.

Redirection en cours...

Si vous n'ĂȘtes pas redirigĂ© automatiquement, 👉 cliquez ici 👈