Patrick Bélanger
Article en référence: https://v.redd.it/2sxfhn4y1rfe1
DeepSeek, un modèle d’IA développé en Chine, fait l’objet d’une attention particulière pour son système de censure en temps réel. Les utilisateurs ont remarqué que l’IA commence parfois à répondre à des questions sensibles concernant la Chine, puis s’autocensure en effaçant sa réponse. Ce comportement rappelle étrangement le “Ministère de la Vérité” décrit dans le roman 1984 de George Orwell, où l’histoire est constamment réécrite.
Le modèle évite systématiquement les sujets comme la place Tiananmen, les Ouïghours, ou toute critique du Parti communiste chinois. Plus surprenant encore, cette censure s’effectue parfois en direct, l’IA commençant à formuler une réponse avant de la retirer et de la remplacer par un message d’excuse ou de refus.
La censure dans l’IA n’est pas l’apanage de DeepSeek ou de la Chine. Chaque modèle d’IA reflète les valeurs et les contraintes de sa société d’origine. ChatGPT et Gemini ont leurs propres limites sur certains sujets sensibles, qu’ils soient politiques, sociaux ou éthiques. La différence réside principalement dans la transparence et la méthode d’application de ces restrictions.
Cette situation soulève des questions fondamentales sur l’équilibre entre le contrôle de l’information et l’accès à la connaissance. Plutôt que de juger un système par rapport à un autre, il serait plus constructif de réfléchir à la façon dont nous souhaitons que l’IA serve la société tout en respectant ses valeurs fondamentales.
Imaginez un bibliothécaire qui commence à vous raconter une histoire passionnante sur la Révolution française. Au beau milieu d’une phrase sur la prise de la Bastille, il s’arrête net, déchire la page qu’il était en train de lire, et vous dit avec un sourire gêné : “Désolé, parlons plutôt de la météo!” C’est exactement ce que fait DeepSeek : il commence à partager une information, puis, comme frappé par un éclair de lucidité (ou de censure), efface tout et fait comme si de rien n’était.
Cette situation pourrait catalyser une réflexion mondiale sur la transparence dans l’IA. Les limitations évidentes de DeepSeek pourraient encourager le développement de modèles plus ouverts et équilibrés. De plus, la diversité des approches en matière d’IA - qu’elles soient occidentales ou orientales - stimule l’innovation et la concurrence, poussant chaque acteur à s’améliorer.
La visibilité de ces mécanismes de censure pourrait paradoxalement conduire à une plus grande prise de conscience et, à terme, à des systèmes plus transparents. C’est une opportunité d’apprentissage pour toute l’industrie de l’IA.
L’autocensure de DeepSeek n’est que la partie visible de l’iceberg. Si un modèle peut être programmé pour censurer certaines vérités historiques, que se passe-t-il avec les informations plus subtiles? Cette technologie pourrait devenir un outil de manipulation massive, formatant subtilement les esprits sans même qu’on s’en aperçoive.
Plus inquiétant encore, cette approche de la censure pourrait se normaliser et s’étendre à d’autres domaines. Nous risquons de créer une génération d’IAs qui, plutôt que de nous aider à accéder à la vérité, nous en éloignent systématiquement sous couvert de “protection” ou de “sécurité”.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈