🚹 Sam Altman confirme: vos conversations ChatGPT peuvent ĂȘtre utilisĂ©es en cour comme preuves! OpenAI garde tout 30+ jours, mĂȘme aprĂšs suppression. La communautĂ© tech se tourne massivement vers les modĂšles locaux pour protĂ©ger leur vie privĂ©e. đŸ€–âš–ïž

Article en référence: https://i.redd.it/k64e9lwtdeff1.png

Récapitulatif factuel

Sam Altman, PDG d’OpenAI, a rĂ©cemment rappelĂ© une rĂ©alitĂ© juridique importante : toutes les conversations avec ChatGPT peuvent ĂȘtre utilisĂ©es comme preuves devant un tribunal si elles sont pertinentes dans une affaire judiciaire. Cette dĂ©claration fait suite Ă  un procĂšs intentĂ© par le New York Times contre OpenAI, oĂč un juge a ordonnĂ© Ă  l’entreprise de conserver tous les historiques de conversations pour les besoins de l’enquĂȘte.

Contrairement Ă  ce que plusieurs utilisateurs croient, OpenAI conserve effectivement les conversations pendant au moins 30 jours, mĂȘme aprĂšs suppression par l’utilisateur. Pour les comptes gratuits, cette rĂ©tention peut ĂȘtre plus longue. Seuls les clients entreprise avec des plans spĂ©cialisĂ©s peuvent bĂ©nĂ©ficier d’une politique de non-rĂ©tention des donnĂ©es.

Cette situation soulĂšve des questions importantes sur la confidentialitĂ© des Ă©changes avec les intelligences artificielles. Techniquement, ces conversations ne bĂ©nĂ©ficient d’aucune protection lĂ©gale particuliĂšre, contrairement aux Ă©changes avec un avocat, un mĂ©decin ou un psychologue qui sont protĂ©gĂ©s par le secret professionnel.

La communautĂ© technique rĂ©agit en se tournant massivement vers les modĂšles locaux comme Llama ou les solutions comme llamafile, qui permettent d’exĂ©cuter des IA directement sur son ordinateur sans connexion internet. Ces alternatives offrent une confidentialitĂ© thĂ©oriquement absolue, puisque les donnĂ©es ne quittent jamais l’appareil de l’utilisateur.

Point de vue neutre

Cette rĂ©vĂ©lation, bien qu’elle puisse surprendre certains utilisateurs, s’inscrit dans la logique juridique normale de notre Ă©poque numĂ©rique. Depuis l’avĂšnement d’internet, tout contenu numĂ©rique peut potentiellement servir de preuve judiciaire - que ce soit nos recherches Google, nos messages Facebook ou nos courriels.

La vraie question n’est pas de savoir si nos conversations peuvent ĂȘtre utilisĂ©es en justice, mais plutĂŽt de comprendre dans quelles circonstances cela pourrait arriver. Dans la pratique, les autoritĂ©s ne fouillent pas aveuglĂ©ment dans nos historiques ChatGPT. Elles le font gĂ©nĂ©ralement dans le cadre d’enquĂȘtes spĂ©cifiques oĂč il existe dĂ©jĂ  des soupçons fondĂ©s.

L’avertissement d’Altman peut ĂȘtre interprĂ©tĂ© de deux façons : soit comme un geste de transparence envers les utilisateurs, soit comme une stratĂ©gie pour pousser vers les services payants qui offrent plus de protection. La rĂ©alitĂ© se situe probablement entre les deux.

Ce qui Ă©merge clairement, c’est un changement de paradigme dans notre rapport Ă  la technologie. Nous entrons dans une Ăšre oĂč la frontiĂšre entre l’assistance numĂ©rique et la surveillance devient de plus en plus floue. La solution rĂ©side probablement dans une meilleure Ă©ducation numĂ©rique et des choix technologiques plus Ă©clairĂ©s.

Exemple

Imaginez que vous teniez un journal intime, mais au lieu de l’écrire dans un carnet cachĂ© sous votre matelas, vous le confiez chaque jour Ă  votre voisin en lui demandant de le garder secret. Votre voisin vous assure qu’il ne le lira pas et qu’il le dĂ©truira aprĂšs quelques semaines.

Un beau matin, la police frappe Ă  la porte de votre voisin avec un mandat de perquisition dans le cadre d’une enquĂȘte vous concernant. Devinez ce qui va se retrouver entre les mains des enquĂȘteurs ? Exactement : votre journal intime avec tous vos secrets, vos doutes et vos confessions les plus personnelles.

C’est exactement ce qui se passe avec ChatGPT. Vous lui confiez vos pensĂ©es les plus intimes, vos questions embarrassantes, vos projets secrets, en pensant que c’est comme parler Ă  un ami discret. Mais en rĂ©alitĂ©, c’est comme confier votre journal Ă  une entreprise qui, aussi bien intentionnĂ©e soit-elle, doit obĂ©ir aux lois.

La solution ? Soit vous continuez Ă  faire confiance Ă  votre “voisin numĂ©rique” en acceptant les risques, soit vous revenez au bon vieux carnet sous le matelas - ou dans ce cas-ci, Ă  un modĂšle d’IA qui tourne directement sur votre ordinateur, comme un journal intime qui ne quitte jamais votre chambre.

Point de vue optimiste

Cette transparence d’Altman marque en fait un tournant historique vers plus d’honnĂȘtetĂ© dans l’industrie technologique ! Enfin, un dirigeant qui dit les vraies affaires au lieu de nous endormir avec du marketing flou. C’est exactement ce genre de franchise qui va permettre de construire une relation de confiance durable entre les utilisateurs et l’IA.

Cette situation va accĂ©lĂ©rer l’innovation dans des domaines cruciaux. Les modĂšles locaux vont devenir de plus en plus performants et accessibles. On assiste dĂ©jĂ  Ă  une dĂ©mocratisation incroyable avec des outils comme Ollama qui permettent Ă  n’importe qui de faire tourner des modĂšles sophistiquĂ©s sur son laptop.

Plus excitant encore, cette pression va pousser l’industrie Ă  dĂ©velopper des technologies de confidentialitĂ© rĂ©volutionnaires. Pensez au chiffrement homomorphe, aux preuves Ă  divulgation nulle, aux architectures fĂ©dĂ©rĂ©es - des innovations qui vont transformer notre rapport Ă  la vie privĂ©e numĂ©rique.

L’avertissement d’Altman pourrait mĂȘme catalyser l’adoption de protections lĂ©gales similaires au secret professionnel pour les Ă©changes avec l’IA. Imaginez un monde oĂč vos conversations avec votre assistant IA personnel bĂ©nĂ©ficient des mĂȘmes protections que vos Ă©changes avec votre psychologue !

Cette crise apparente cache en réalité une opportunité fantastique de repenser complÚtement notre infrastructure numérique vers plus de souveraineté personnelle et de respect de la vie privée.

Point de vue pessimiste

Cette dĂ©claration d’Altman rĂ©vĂšle la pointe de l’iceberg d’un systĂšme de surveillance gĂ©nĂ©ralisĂ©e qui se met discrĂštement en place. Nous sommes en train de crĂ©er volontairement la plus grande base de donnĂ©es de pensĂ©es humaines jamais constituĂ©e, et nous la remettons entre les mains d’entreprises privĂ©es qui collaborent Ă©troitement avec les gouvernements.

Le problĂšme dĂ©passe largement ChatGPT. Toutes ces plateformes d’IA - Google Bard, Claude, Bing Chat - collectent nos donnĂ©es les plus intimes. Nous leur confions nos peurs, nos projets, nos vulnĂ©rabilitĂ©s, nos secrets professionnels. Cette information combinĂ©e crĂ©e un profil psychologique d’une prĂ©cision terrifiante.

Pire encore, cette surveillance s’auto-normalise. Les gens s’habituent Ă  l’idĂ©e que leurs conversations privĂ©es peuvent ĂȘtre scrutĂ©es. C’est exactement comme ça que les sociĂ©tĂ©s autoritaires s’installent : graduellement, en rendant l’inacceptable banal.

Les modĂšles locaux ne sont pas la panacĂ©e qu’on nous vend. Combien d’utilisateurs ont vraiment les compĂ©tences techniques pour les installer et les maintenir correctement ? Et mĂȘme lĂ , nos systĂšmes d’exploitation, nos processeurs, nos connexions internet restent des vecteurs de surveillance potentiels.

Nous sommes en train de construire une infrastructure oĂč chaque pensĂ©e, chaque questionnement, chaque moment de vulnĂ©rabilitĂ© peut ĂȘtre archivĂ©, analysĂ© et utilisĂ© contre nous. L’histoire nous enseigne que tout pouvoir de surveillance finit par ĂȘtre abusĂ©. Pourquoi cette fois serait-elle diffĂ©rente ?

Redirection en cours...

Si vous n'ĂȘtes pas redirigĂ© automatiquement, 👉 cliquez ici 👈