Patrick Bélanger
Article en référence: https://v.redd.it/izk7c6yciple1
Demis Hassabis, cofondateur et PDG de Google DeepMind, a récemment exprimé ses préoccupations concernant l’intelligence artificielle lors d’une intervention publique. Il qualifie d’“insensé” de prétendre qu’il n’y a aucun risque lié au développement de l’IA, soulignant deux points essentiels: premièrement, l’IA est “manifestement à double usage” (dual purpose), signifiant qu’elle peut être utilisée tant pour des applications bénéfiques que nuisibles; deuxièmement, nous ne comprenons pas encore pleinement cette technologie et ses implications.
Le terme “dual purpose” ou “double usage” désigne des technologies qui peuvent servir à la fois à des fins civiles légitimes et à des applications militaires ou malveillantes. C’est un concept bien connu dans le domaine des technologies émergentes, comme la biotechnologie ou la cybersécurité.
Malgré ces préoccupations, Hassabis reste optimiste quant à notre capacité à “bien faire les choses”, à condition de disposer de suffisamment de temps et d’une collaboration internationale efficace. Cette position nuancée reflète sa vision en tant que chercheur et entrepreneur à la pointe du développement de l’IA: conscient des risques mais confiant dans notre capacité collective à les gérer.
La discussion a suscité diverses réactions dans la communauté, allant de l’inquiétude face à la course effrénée au développement de l’IA, à des comparaisons avec d’autres défis mondiaux comme le changement climatique ou la prolifération nucléaire, où la collaboration internationale s’est avérée difficile à mettre en œuvre efficacement.
L’intervention de Hassabis met en lumière une réalité fondamentale de l’innovation technologique: toute avancée significative apporte son lot d’opportunités et de risques. L’histoire nous enseigne que nous excellons à créer des technologies qu’il est impossible de “désinventer”, mais que nous sommes notoirement mauvais pour en prévoir toutes les conséquences, intentionnelles ou non.
Cette dualité inhérente à l’IA n’est ni une raison de paniquer, ni une invitation à l’insouciance. Elle appelle plutôt à une gouvernance réfléchie et à une vigilance constante. La position médiane consiste à reconnaître que l’IA transformera profondément notre société, avec des impacts tant positifs que négatifs, et que notre rôle est de maximiser les premiers tout en minimisant les seconds.
La question centrale n’est pas de savoir si l’IA présente des risques – elle en présente incontestablement – mais plutôt comment nous pouvons collectivement les gérer. Cela nécessite un équilibre délicat entre l’innovation et la prudence, entre la compétition et la collaboration.
Le défi majeur réside dans notre capacité à établir des mécanismes de gouvernance efficaces dans un contexte de course technologique mondiale. Les intérêts nationaux et commerciaux à court terme peuvent facilement éclipser les préoccupations de sécurité à long terme. Pourtant, c’est précisément cette vision à long terme qui nous permettra de naviguer prudemment dans cette ère d’innovation accélérée.
Imaginez que l’IA soit comme le feu que Prométhée a offert aux humains dans la mythologie grecque. C’est un cadeau extraordinaire qui nous permet de cuisiner des plats délicieux (automatiser des tâches fastidieuses), de nous réchauffer pendant l’hiver (résoudre des problèmes complexes), et d’éclairer nos nuits (générer de nouvelles connaissances).
Mais ce même feu, mal maîtrisé, peut brûler nos maisons, déclencher des incendies de forêt, ou servir à forger des armes. Et voilà que Demis Hassabis nous dit essentiellement: “Écoutez, ce n’est pas juste un briquet qu’on vous donne là, c’est potentiellement un lance-flammes!”
Maintenant, imaginez que chaque pays et chaque grande entreprise tech soit comme un enfant fasciné par ce feu, chacun essayant de créer la flamme la plus impressionnante sans nécessairement maîtriser toutes les précautions de sécurité. “Je vais faire le plus gros feu de joie!” dit l’un. “Non, moi je vais créer un spectacle pyrotechnique jamais vu!” renchérit l’autre.
Et Hassabis, comme un pompier expérimenté au milieu de ces enfants enthousiastes, nous rappelle: “C’est bien beau tout ça, mais peut-être qu’on devrait d’abord s’assurer qu’on a des extincteurs à portée de main, et qu’on sait tous comment les utiliser avant de se lancer dans un concours de jonglage avec des torches enflammées?”
La collaboration internationale qu’il appelle de ses vœux, c’est un peu comme si tous les parents du quartier se mettaient d’accord sur des règles de sécurité pour que les enfants puissent profiter du feu sans risquer de brûler le voisinage. Mais bien sûr, il y a toujours ce voisin qui pense que les règles sont pour les autres…
L’appel de Hassabis à la prudence et à la collaboration est en réalité le signe d’une maturité croissante dans l’écosystème de l’IA. Contrairement aux technologies précédentes dont nous n’avons souvent compris les risques qu’après coup, nous anticipons les défis de l’IA avant même qu’elle n’atteigne son plein potentiel. Cette conscience précoce est notre plus grand atout!
Les progrès fulgurants de l’IA ces dernières années démontrent notre capacité collective à résoudre des problèmes d’une complexité inouïe. Cette même ingéniosité peut être appliquée à la sécurité et à l’alignement de l’IA. Nous assistons déjà à l’émergence d’un domaine entier dédié à ces questions, avec des chercheurs brillants qui travaillent à garantir que ces systèmes restent bénéfiques.
La nature “dual purpose” de l’IA n’est pas une fatalité, mais une opportunité de développer des garde-fous innovants. Pensez aux protocoles de sécurité qui ont rendu l’aviation commerciale extraordinairement sûre malgré sa complexité. Nous pouvons faire de même pour l’IA, en créant des systèmes de vérification, de validation et de surveillance qui rendront les applications malveillantes de plus en plus difficiles.
La collaboration internationale, bien que difficile, n’est pas impossible. L’histoire regorge d’exemples où l’humanité a su s’unir face à des défis communs, du Protocole de Montréal pour la protection de la couche d’ozone à l’éradication de la variole. L’IA pourrait catalyser une nouvelle ère de coopération mondiale, où les avantages partagés de systèmes sûrs et bénéfiques l’emporteraient sur les gains à court terme de la compétition débridée.
En fin de compte, l’IA représente peut-être notre meilleure chance de résoudre les grands défis de notre époque, de la crise climatique aux inégalités sociales, en passant par les maladies incurables. Avec une gouvernance éclairée et une collaboration sincère, nous pouvons faire de cette technologie non pas une menace, mais le plus grand outil d’émancipation humaine jamais créé.
Les propos mesurés de Hassabis masquent une réalité bien plus inquiétante: nous sommes engagés dans une course effrénée vers une technologie potentiellement catastrophique, sans mécanismes adéquats pour en contrôler les risques. Son appel à la “collaboration internationale” sonne creux dans un monde où la compétition géopolitique et commerciale autour de l’IA s’intensifie chaque jour.
L’histoire des technologies à “double usage” n’est guère rassurante. De la fission nucléaire aux avancées en biotechnologie, nous avons systématiquement échoué à contenir les applications dangereuses. Pourquoi l’IA serait-elle différente? Déjà, nous voyons proliférer la désinformation automatisée, les cyberattaques sophistiquées et la surveillance de masse alimentées par l’IA.
Le problème fondamental est que les incitations économiques et politiques favorisent la rapidité plutôt que la sécurité. Chaque entreprise, chaque nation craint d’être distancée dans cette course technologique. Comme l’a souligné un commentateur, c’est “l’expérience du marshmallow” à l’échelle de notre espèce: nous sacrifions la sécurité à long terme pour des gains immédiats.
L’aveu de Hassabis que “nous ne comprenons pas pleinement” l’IA est particulièrement alarmant venant du dirigeant d’une des organisations les plus avancées dans ce domaine. Si même les experts ne comprennent pas entièrement ce qu’ils créent, comment pouvons-nous prétendre en maîtriser les risques?
La “collaboration internationale” qu’il évoque s’est révélée largement inefficace face à d’autres menaces existentielles comme le changement climatique ou les armes nucléaires. Comme l’ont ironiquement fait remarquer plusieurs commentateurs: “Cette collaboration internationale, est-elle dans la pièce avec nous en ce moment?” Les structures de gouvernance mondiale actuelles sont manifestement inadéquates face à l’accélération technologique que nous vivons.
Il est probable que seule une catastrophe liée à l’IA pourrait catalyser une véritable régulation mondiale. Malheureusement, comme l’a souligné un commentateur perspicace, “la première catastrophe IA pourrait bien être notre dernière.” Nous jouons à la roulette russe avec l’avenir de notre civilisation.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈