Documents révélés: Clearview AI, utilisée par ICE et FBI, a été créée pour cibler immigrants et gauche politique. Les fondateurs ont consulté des eugénistes et extrémistes. La surveillance de masse est un outil politique, peu importe qui tient les rênes. #TechnoSurveillance

Article en référence: https://www.motherjones.com/politics/2025/04/clearview-ai-immigration-ice-fbi-surveillance-facial-recognition-hoan-ton-that-hal-lambert-trump/

Récapitulatif factuel

Un article récent de Mother Jones révèle que Clearview AI, une entreprise de reconnaissance faciale utilisée par des agences gouvernementales américaines comme l’ICE (Immigration and Customs Enforcement) et le FBI, aurait été fondée avec des intentions politiques ciblées. Selon des milliers de documents nouvellement obtenus, les fondateurs de Clearview AI auraient toujours eu l’intention de cibler les immigrants et la gauche politique.

La reconnaissance faciale est une technologie qui permet d’identifier automatiquement une personne à partir d’une image de son visage. Elle fonctionne en comparant les caractéristiques faciales d’une personne avec une base de données d’images. Clearview AI a constitué sa base de données en collectant des milliards d’images de visages à partir des réseaux sociaux et d’internet, souvent sans consentement explicite.

Les documents révèlent que Hoan Ton-That, le fondateur de Clearview AI, aurait sollicité l’avis d’eugénistes et d’extrémistes de droite lors de la création de sa technologie. Dès le départ, lui et ses associés auraient discuté de l’utilisation de cette technologie contre les immigrants, les personnes de couleur et la gauche politique. L’entreprise aurait des liens étroits avec des figures importantes de l’administration Trump et des mouvements d’extrême droite.

Cette révélation soulève d’importantes questions sur l’éthique de la reconnaissance faciale et son utilisation par les forces de l’ordre, particulièrement dans un contexte politique polarisé. La même technologie a été utilisée pour identifier les participants à l’insurrection du 6 janvier 2021 au Capitole, montrant qu’elle peut être déployée dans différents contextes politiques selon qui contrôle le gouvernement.

Point de vue neutre

La controverse autour de Clearview AI illustre parfaitement le dilemme fondamental des technologies de surveillance dans une démocratie : les outils créés pour assurer la sécurité peuvent facilement devenir des instruments de contrôle politique, indépendamment de l’idéologie de ceux qui les déploient.

Il serait naïf de croire que la technologie de reconnaissance faciale est intrinsèquement bonne ou mauvaise. C’est plutôt son application et sa gouvernance qui déterminent son impact sur la société. Lorsque cette technologie est utilisée sans cadre légal adéquat, sans transparence et sans mécanismes de contrôle démocratique, elle risque d’être détournée à des fins politiques, que ce soit par la droite ou la gauche.

Les réactions polarisées à cette révélation sont révélatrices : ceux qui applaudissaient l’utilisation de cette technologie pour identifier les émeutiers du Capitole s’inquiètent maintenant de son utilisation contre les immigrants et les manifestants de gauche. Inversement, certains qui s’opposaient à son utilisation contre les partisans de Trump la trouvent maintenant acceptable pour cibler d’autres groupes.

Cette situation nous rappelle que la protection de la vie privée et les limites du pouvoir de l’État ne devraient pas être des questions partisanes. Elles touchent aux fondements mêmes de notre contrat social et de nos libertés civiles. Plutôt que de débattre de qui devrait contrôler ces outils de surveillance, peut-être devrions-nous nous demander quelles limites fondamentales devraient être imposées à leur utilisation, indépendamment de qui est au pouvoir.

Exemple

Imaginez que vous soyez membre d’un club de hockey amateur où deux capitaines, Marc et Sophie, se relaient pour diriger l’équipe chaque saison. Marc vient d’installer une caméra dans les vestiaires pour “améliorer la discipline de l’équipe”. Il affirme que c’est uniquement pour surveiller les joueurs qui arrivent en retard ou qui ne rangent pas leur équipement.

Au début, les partisans de Marc trouvent ça génial : “Enfin, on va pouvoir prendre en flagrant délit ces paresseux qui ne respectent jamais les règles!” Les amis de Sophie, eux, sont inquiets : “C’est une invasion de notre intimité!”

Six mois plus tard, Sophie devient capitaine et hérite de la caméra. Soudain, elle commence à l’utiliser pour identifier qui mange des chips dans le vestiaire (ce qu’elle a toujours détesté) et pour vérifier qui parle négativement de ses décisions tactiques. Les rôles s’inversent : les amis de Sophie trouvent maintenant que la caméra est un outil formidable de “cohésion d’équipe”, tandis que les partisans de Marc crient à la “dictature du vestiaire”.

Pendant ce temps, Jean-Philippe, qui joue depuis 20 ans, observe la scène en secouant la tête : “Peut-être que le problème n’est pas qui contrôle la caméra, mais le fait même qu’il y ait une caméra dans un endroit où les gens devraient pouvoir se changer tranquillement?”

Cette analogie simpliste illustre comment les outils de surveillance changent de perception selon qui les contrôle, alors que la vraie question devrait être : certains espaces de notre vie sociale et politique ne devraient-ils pas rester à l’abri de toute surveillance, peu importe qui est au pouvoir?

Point de vue optimiste

La révélation des intentions derrière Clearview AI pourrait paradoxalement conduire à une avancée majeure dans la régulation éthique des technologies de reconnaissance faciale. Cette controverse crée une opportunité unique de bâtir un consensus bipartisan sur les limites nécessaires à imposer à ces technologies.

Les démocraties modernes ont toujours su s’adapter aux nouvelles technologies en créant des garde-fous. La reconnaissance faciale n’échappera pas à cette règle. Nous pouvons imaginer l’émergence d’un cadre réglementaire robuste qui permettrait d’utiliser cette technologie pour des fins légitimes de sécurité publique tout en protégeant les libertés civiles fondamentales.

Des innovations techniques pourraient également émerger pour répondre à ces préoccupations. Des systèmes de reconnaissance faciale avec “privacy by design” pourraient être développés, où les données biométriques seraient chiffrées de manière à ne pouvoir être utilisées que dans des circonstances strictement définies et avec autorisation judiciaire.

Cette controverse pourrait aussi sensibiliser le grand public aux enjeux de la vie privée à l’ère numérique, créant une pression citoyenne pour des réformes. Les jeunes générations, particulièrement sensibles à ces questions, pourraient devenir les architectes d’un nouveau contrat social numérique où la technologie servirait véritablement l’intérêt général.

Finalement, cette affaire pourrait catalyser l’innovation dans les technologies de contre-surveillance, permettant aux citoyens de se protéger contre les abus potentiels. Des solutions comme les masques anti-reconnaissance faciale ou les applications de brouillage biométrique pourraient devenir accessibles au grand public, créant un équilibre des pouvoirs dans l’espace numérique.

Point de vue pessimiste

L’affaire Clearview AI n’est que la partie visible d’un iceberg bien plus menaçant. Ce que nous voyons aujourd’hui n’est que le début d’un système de surveillance omniprésent qui transformera fondamentalement notre société, et pas pour le mieux.

La reconnaissance faciale n’est qu’une technologie parmi d’autres dans l’arsenal de surveillance moderne. La reconnaissance de la démarche, l’analyse comportementale, la surveillance des médias sociaux et bien d’autres technologies convergent pour créer un système où chaque mouvement, chaque expression et chaque relation pourront être analysés et potentiellement utilisés contre nous.

L’histoire nous enseigne que les technologies de surveillance, une fois déployées, ne sont jamais véritablement limitées ou retirées. Elles ne font que s’étendre. Les promesses de régulation sont généralement vidées de leur substance par des exceptions toujours plus nombreuses au nom de la sécurité nationale ou de la lutte contre le crime.

Plus inquiétant encore, ces technologies créent une asymétrie de pouvoir fondamentale entre les citoyens et l’État, ou entre les citoyens et les grandes entreprises technologiques. Cette asymétrie érode les fondements mêmes de la démocratie, qui repose sur un certain équilibre des pouvoirs.

Dans ce contexte, les divisions politiques actuelles jouent parfaitement le jeu des promoteurs de ces technologies. Pendant que nous débattons de qui devrait contrôler ces outils, leur déploiement se poursuit inexorablement. Chaque camp politique accepte temporairement les abus lorsqu’ils visent leurs adversaires, ne réalisant pas qu’ils légitiment ainsi un système qui finira par les affecter tous.

À terme, nous risquons de nous retrouver dans une société où la dissidence politique, quelle qu’elle soit, devient pratiquement impossible face à des systèmes capables d’identifier, de suivre et de cibler n’importe quel individu en temps réel. Ce n’est pas un scénario de science-fiction, mais la trajectoire actuelle de nos sociétés si nous n’agissons pas rapidement et collectivement.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈