🚨 Révélation choc: vos conversations ChatGPT supprimées sont toujours stockées! Suite à la poursuite du NY Times, OpenAI doit conserver 60 milliards de chats. Quand on clique supprimer , ça ne disparaît pas vraiment. La confidentialité numérique, un mythe? 🤔

Article en référence: https://www.reddit.com/r/OpenAI/comments/1l5421o/privacy_is_not_a_luxuryits_a_human_right_end_the/

Récapitulatif factuel

Une bataille juridique complexe oppose actuellement le New York Times à OpenAI, créant des répercussions majeures pour la confidentialité des utilisateurs de ChatGPT. En décembre 2023, le prestigieux journal a poursuivi OpenAI et Microsoft, alléguant que leurs modèles d’IA ont été entraînés sur des millions d’articles du Times sans autorisation.

Le cœur du problème réside dans une ordonnance de préservation émise en mai 2025 par la juge Ona Wang. Cette ordonnance oblige OpenAI à conserver tous les journaux de conversations qui seraient normalement supprimés - que ce soit à la demande de l’utilisateur ou selon les politiques de confidentialité habituelles. Concrètement, cela signifie que même quand vous “supprimez” une conversation ChatGPT, elle reste stockée sur les serveurs d’OpenAI.

L’ordonnance couvre les versions ChatGPT Free, Pro, Plus et Team, mais exclut les clients Enterprise et éducatifs qui ont des accords de rétention zéro. OpenAI estime que cela représente plus de 60 milliards de journaux de conversation à préserver indéfiniment.

Sam Altman, PDG d’OpenAI, a qualifié cette demande d’“inappropriée” et a promis de “combattre toute demande qui compromet la vie privée de nos utilisateurs”. L’entreprise a fait appel de cette décision, argumentant qu’elle entre en conflit avec leurs engagements de confidentialité et crée un fardeau financier excessif.

Un détail technique important : depuis l’implémentation de la fonction “mémoire” de ChatGPT, plusieurs utilisateurs rapportent que l’IA peut encore se souvenir de conversations supposément supprimées, suggérant que la suppression n’était déjà pas aussi définitive qu’on pourrait le croire.

Point de vue neutre

Cette situation illustre parfaitement la tension croissante entre les droits de propriété intellectuelle, la transparence judiciaire et la confidentialité des utilisateurs dans l’ère de l’IA. Nous assistons à un cas de figure où trois intérêts légitimes entrent en collision frontale.

D’un côté, le New York Times défend ses droits d’auteur et cherche à prouver que ses contenus ont été utilisés sans permission pour entraîner ChatGPT. De l’autre, OpenAI tente de protéger la confidentialité de ses utilisateurs tout en se défendant contre des accusations de violation de droits d’auteur. Entre les deux, les tribunaux doivent équilibrer le besoin de préservation de preuves avec les droits à la vie privée.

La réalité probable est que cette ordonnance représente une mesure temporaire standard dans les litiges commerciaux complexes. Les avocats spécialisés confirment que ces ordonnances de préservation sont courantes et ne constituent pas nécessairement un changement de politique permanent.

Cependant, cette affaire soulève des questions fondamentales sur nos attentes en matière de confidentialité numérique. Quand nous “supprimons” quelque chose en ligne, avons-nous vraiment le droit de nous attendre à ce que cela disparaisse complètement ? La réponse dépend largement de la juridiction, des conditions d’utilisation et du contexte légal.

Cette bataille judiciaire pourrait établir des précédents importants pour l’industrie de l’IA, particulièrement concernant la façon dont les entreprises gèrent les données d’entraînement et les conversations des utilisateurs.

Exemple

Imaginez que vous tenez un journal intime que vous confiez à votre ami bibliothécaire pour qu’il vous aide à mieux organiser vos pensées. Vous lui dites : “Si jamais je te demande d’oublier une page, déchire-la et jette-la au feu.”

Un jour, un écrivain célèbre découvre que votre ami bibliothécaire a lu des milliers de livres (incluant potentiellement le sien) pour devenir si doué à organiser les idées. L’écrivain le poursuit en justice, réclamant : “Tu as volé mes mots pour devenir intelligent !”

Le juge dit alors au bibliothécaire : “Jusqu’à ce qu’on règle cette histoire, tu ne peux plus brûler aucune page de journal, même si ton ami te le demande. On a besoin de tout garder comme preuve.”

Vous, le propriétaire du journal, vous vous retrouvez pris entre deux feux. Votre ami bibliothécaire vous avait promis de respecter votre intimité, mais maintenant il doit garder vos secrets les plus embarrassants dans ses tiroirs “au cas où”.

C’est exactement ce qui se passe avec ChatGPT : vous pensiez que “supprimer” équivalait à “brûler la page”, mais maintenant ces pages s’accumulent dans un tiroir verrouillé, en attendant que les adultes finissent de se chicaner au tribunal.

La morale de l’histoire ? Peut-être qu’il vaut mieux ne pas écrire dans son journal des choses qu’on ne voudrait pas voir lues par un juge curieux !

Point de vue optimiste

Cette controverse, bien qu’inconfortable à court terme, pourrait catalyser une révolution positive dans la transparence et la responsabilité de l’IA ! Nous assistons peut-être aux douleurs de croissance nécessaires pour établir un écosystème d’intelligence artificielle plus éthique et respectueux des droits.

Premièrement, cette bataille juridique force l’industrie à clarifier ses pratiques de données. OpenAI et ses concurrents devront développer des technologies de préservation de la vie privée plus sophistiquées - pensez au chiffrement homomorphe, à la confidentialité différentielle, ou aux techniques d’anonymisation avancées. L’innovation naît souvent de la contrainte !

Deuxièmement, cela accélère probablement le développement d’IA locales et décentralisées. Si les utilisateurs s’inquiètent de la confidentialité des services cloud, nous verrons une explosion d’outils d’IA qui fonctionnent directement sur nos appareils. Imaginez ChatGPT tournant entièrement sur votre téléphone, sans jamais envoyer vos données ailleurs !

Cette affaire pourrait aussi pousser vers des modèles de licence plus équitables entre les créateurs de contenu et les développeurs d’IA. Au lieu de batailles juridiques coûteuses, nous pourrions voir émerger des systèmes de rémunération automatique pour les créateurs dont le contenu contribue à l’entraînement des modèles.

Finalement, la sensibilisation accrue à ces enjeux créera une génération d’utilisateurs plus informés et des entreprises plus responsables. C’est le genre de crise nécessaire qui mène à de meilleures pratiques pour tous !

Point de vue pessimiste

Cette affaire révèle une réalité troublante : nous avons déjà perdu le contrôle de nos données personnelles, et les entreprises technologiques nous font croire à une confidentialité qui n’existe plus vraiment.

Le fait qu’OpenAI doive maintenant préserver 60 milliards de conversations “supprimées” démontre l’ampleur de la surveillance déjà en place. Ces données étaient-elles vraiment supprimées avant cette ordonnance ? La fonction “mémoire” qui permet à ChatGPT de se souvenir de conversations effacées suggère que non.

Cette bataille juridique établit un précédent dangereux où les intérêts commerciaux et judiciaires priment sur la vie privée des utilisateurs. Si un tribunal peut ordonner la préservation de toutes nos conversations avec une IA, qu’est-ce qui empêchera d’autres acteurs - gouvernements, entreprises, organisations - de réclamer l’accès à ces données ?

Nous nous dirigeons vers un monde où chaque interaction numérique devient une preuve potentielle dans un futur litige. Vos questions innocentes à ChatGPT sur votre santé, vos relations, vos finances ou vos projets professionnels pourraient un jour être scrutées par des avocats, des assureurs, ou des employeurs.

L’ironie est cruelle : nous utilisons l’IA pour nous aider à réfléchir et créer, mais cette même assistance devient un dossier permanent sur nos pensées les plus intimes. C’est comme si chaque conversation avec un thérapeute était automatiquement enregistrée et stockée indéfiniment.

Le plus inquiétant ? Cette affaire ne concerne qu’OpenAI. Combien d’autres entreprises d’IA collectent et préservent silencieusement nos données sans ordonnance judiciaire ? Nous découvrons peut-être seulement la pointe de l’iceberg d’une surveillance généralisée déguisée en innovation technologique.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈