Patrick Bélanger
Article en référence: https://apnews.com/article/trump-ai-artificial-intelligence-executive-order-eef1e5b9bec861eaf9b36217d547929c
Le 7 mars 2025, Donald Trump a signé un décret présidentiel visant à développer une intelligence artificielle “libre de biais idéologique”. Cette initiative s’inscrit dans le cadre des pouvoirs exécutifs du président américain, qui lui permettent d’orienter les politiques fédérales sans nécessairement passer par le Congrès.
Le décret ordonne l’élaboration d’un plan d’action pour l’IA dans les 180 jours suivant sa signature. Ce travail sera dirigé par un petit groupe de responsables de la Maison Blanche spécialisés en technologie et en sciences, incluant un nouveau Conseiller Spécial pour l’IA et les Cryptomonnaies, rôle confié à David Sacks, capital-risqueur et ancien dirigeant de PayPal.
Pour comprendre ce décret, il est important de saisir ce qu’est un “biais idéologique” dans le contexte de l’IA. Les modèles d’intelligence artificielle, particulièrement les grands modèles de langage (LLM), sont entraînés sur d’immenses quantités de données textuelles provenant d’internet et d’autres sources. Ces données reflètent inévitablement les perspectives, opinions et préjugés humains présents dans ces textes. Par conséquent, les réponses générées par ces systèmes peuvent refléter ces mêmes tendances, ce que certains considèrent comme des “biais”.
Il convient de noter que les décrets présidentiels ne s’appliquent directement qu’aux agences fédérales et non aux entreprises privées qui développent la majorité des systèmes d’IA actuels. Leur portée est donc limitée au secteur public et aux projets financés par le gouvernement fédéral.
Ce décret soulève une question fondamentale : est-il réellement possible de créer une intelligence artificielle “sans biais idéologique” ? La neutralité absolue est probablement une chimère dans le domaine de l’IA, comme dans tout système conçu et entraîné par des humains.
Les données sur lesquelles s’entraînent les modèles d’IA reflètent notre monde tel qu’il est, avec ses complexités, ses contradictions et ses diverses perspectives. Vouloir éliminer tout “biais” revient souvent à privilégier certaines visions du monde au détriment d’autres, ce qui constitue en soi un choix idéologique.
La véritable question n’est peut-être pas tant d’éliminer les biais que de les reconnaître, les comprendre et décider consciemment lesquels sont acceptables dans quel contexte. Par exemple, un biais en faveur de l’exactitude scientifique est généralement considéré comme souhaitable, tandis qu’un biais discriminatoire envers certains groupes ne l’est pas.
Ce décret reflète une tendance plus large où l’IA devient un nouveau champ de bataille politique. Chaque camp souhaite que ces technologies reflètent sa vision du monde, ou du moins, qu’elles ne contredisent pas ses convictions fondamentales. Cette politisation de l’IA risque de fragmenter davantage l’espace informationnel, avec différentes versions de l’IA servant différentes “vérités” selon les préférences idéologiques de leurs créateurs ou utilisateurs.
En fin de compte, la question n’est pas tant technique que sociale et politique : qui décide ce qui constitue un “biais” et ce qui représente une “vérité objective” ? Et comment ces décisions influenceront-elles les systèmes d’IA qui façonnent de plus en plus notre accès à l’information et notre compréhension du monde ?
Imaginez que vous êtes l’arbitre d’un match de hockey entre les Canadiens de Montréal et les Bruins de Boston. Vous avez grandi à Montréal, vous avez des souvenirs d’enfance au Forum, et votre chambre était tapissée de posters de Guy Lafleur. Maintenant, on vous demande d’arbitrer ce match de façon “libre de biais”.
Impossible, n’est-ce pas ? Même avec la meilleure volonté du monde, vos expériences passées colorent votre perception. Peut-être serez-vous inconsciemment plus sévère envers les Bruins pour compenser votre biais que vous connaissez. Ou peut-être trop indulgent envers les Canadiens sans même vous en rendre compte.
C’est exactement le défi de l’IA “sans biais idéologique”. Notre ami Donald veut un arbitre parfaitement neutre, mais il oublie que cet arbitre a été formé en regardant des millions de matchs commentés par des humains qui, eux, avaient leurs propres préférences !
“Hey, IA ! Est-ce que les baisses d’impôts pour les riches stimulent l’économie ?”
L’IA version actuelle : “Les économistes sont divisés sur cette question. Certaines études suggèrent que…”
L’IA “sans biais” selon certains : “Absolument ! C’est la base d’une économie prospère !”
L’IA “sans biais” selon d’autres : “Non, c’est un mythe néolibéral qui a été réfuté maintes fois !”
C’est comme demander à votre GPS de vous indiquer le “meilleur” chemin sans définir si “meilleur” signifie le plus rapide, le plus court, le plus pittoresque ou celui avec le plus de haltes-toilettes. Sans préciser vos critères, la réponse reflètera inévitablement les priorités de quelqu’un d’autre.
Cette initiative pourrait représenter une opportunité fascinante de repenser notre approche de l’IA et de son rôle dans la société. En remettant en question les biais potentiels des systèmes actuels, nous ouvrons la porte à une réflexion plus profonde sur la façon dont nous voulons que ces technologies nous servent.
Imaginons un instant que ce décret stimule un véritable effort pour créer des systèmes d’IA plus transparents, où les utilisateurs peuvent comprendre clairement les limites et les tendances des réponses qu’ils reçoivent. Cela pourrait encourager une utilisation plus critique et éclairée de ces outils, renforçant ainsi l’autonomie intellectuelle des citoyens.
De plus, cette démarche pourrait catalyser des avancées techniques significatives. Pour répondre à cette exigence de neutralité, les chercheurs pourraient développer de nouvelles méthodes d’entraînement et d’évaluation des modèles, permettant une meilleure détection et atténuation des biais non désirés. Ces innovations profiteraient à l’ensemble du domaine de l’IA, bien au-delà du contexte politique initial.
Sur le plan éducatif, cette controverse pourrait sensibiliser le grand public aux enjeux de l’IA, stimulant un débat sociétal nécessaire sur la place que nous voulons donner à ces technologies dans nos vies. Une population mieux informée sera plus à même de faire des choix éclairés concernant l’utilisation et la régulation de l’IA.
Enfin, en mettant en lumière la question des biais, ce décret pourrait paradoxalement nous amener à une vision plus nuancée et mature de l’objectivité. Nous pourrions collectivement reconnaître que la neutralité parfaite est inatteignable, mais que la diversité des perspectives et la transparence sont des valeurs à cultiver dans le développement de l’IA.
Ce décret présidentiel ouvre la porte à une instrumentalisation politique dangereuse de l’intelligence artificielle. Sous couvert de lutter contre les “biais idéologiques”, il s’agit en réalité d’imposer une vision particulière du monde aux systèmes d’IA développés ou utilisés par le gouvernement fédéral américain.
L’histoire nous a maintes fois montré que lorsque le pouvoir politique s’arroge le droit de définir ce qui est “neutre” ou “objectif”, cela se traduit généralement par la suppression des perspectives qui contredisent sa propre idéologie. Dans ce contexte, une IA “libre de biais idéologique” pourrait signifier une IA qui évite soigneusement de contredire certaines positions politiques, même lorsque les faits les remettent en question.
Cette approche risque de créer une fracture numérique idéologique, où différentes communautés utiliseraient des systèmes d’IA distincts, renforçant les chambres d’écho et polarisant davantage le débat public. Imaginez un monde où votre assistant IA vous donne des réponses radicalement différentes selon que vous êtes identifié comme conservateur ou progressiste.
Plus inquiétant encore, cette politisation de l’IA pourrait compromettre la confiance du public dans ces technologies. Si les citoyens perçoivent que les réponses des systèmes d’IA sont façonnées par des agendas politiques plutôt que par une recherche honnête de la vérité, ils pourraient rejeter en bloc ces outils, perdant ainsi les bénéfices réels qu’ils peuvent offrir.
Enfin, cette initiative détourne l’attention des véritables défis éthiques de l’IA, comme la protection de la vie privée, la concentration du pouvoir technologique ou l’impact sur l’emploi. En se focalisant sur les guerres culturelles, nous risquons de négliger ces questions fondamentales qui détermineront si l’IA sera une force positive ou négative pour notre société.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈