Patrick Bélanger
Article en référence: https://i.redd.it/k64e9lwtdeff1.png
Sam Altman, PDG dâOpenAI, a rĂ©cemment rappelĂ© une rĂ©alitĂ© juridique importante : toutes les conversations avec ChatGPT peuvent ĂȘtre utilisĂ©es comme preuves devant un tribunal si elles sont pertinentes dans une affaire judiciaire. Cette dĂ©claration fait suite Ă un procĂšs intentĂ© par le New York Times contre OpenAI, oĂč un juge a ordonnĂ© Ă lâentreprise de conserver tous les historiques de conversations pour les besoins de lâenquĂȘte.
Contrairement Ă ce que plusieurs utilisateurs croient, OpenAI conserve effectivement les conversations pendant au moins 30 jours, mĂȘme aprĂšs suppression par lâutilisateur. Pour les comptes gratuits, cette rĂ©tention peut ĂȘtre plus longue. Seuls les clients entreprise avec des plans spĂ©cialisĂ©s peuvent bĂ©nĂ©ficier dâune politique de non-rĂ©tention des donnĂ©es.
Cette situation soulĂšve des questions importantes sur la confidentialitĂ© des Ă©changes avec les intelligences artificielles. Techniquement, ces conversations ne bĂ©nĂ©ficient dâaucune protection lĂ©gale particuliĂšre, contrairement aux Ă©changes avec un avocat, un mĂ©decin ou un psychologue qui sont protĂ©gĂ©s par le secret professionnel.
La communautĂ© technique rĂ©agit en se tournant massivement vers les modĂšles locaux comme Llama ou les solutions comme llamafile, qui permettent dâexĂ©cuter des IA directement sur son ordinateur sans connexion internet. Ces alternatives offrent une confidentialitĂ© thĂ©oriquement absolue, puisque les donnĂ©es ne quittent jamais lâappareil de lâutilisateur.
Cette rĂ©vĂ©lation, bien quâelle puisse surprendre certains utilisateurs, sâinscrit dans la logique juridique normale de notre Ă©poque numĂ©rique. Depuis lâavĂšnement dâinternet, tout contenu numĂ©rique peut potentiellement servir de preuve judiciaire - que ce soit nos recherches Google, nos messages Facebook ou nos courriels.
La vraie question nâest pas de savoir si nos conversations peuvent ĂȘtre utilisĂ©es en justice, mais plutĂŽt de comprendre dans quelles circonstances cela pourrait arriver. Dans la pratique, les autoritĂ©s ne fouillent pas aveuglĂ©ment dans nos historiques ChatGPT. Elles le font gĂ©nĂ©ralement dans le cadre dâenquĂȘtes spĂ©cifiques oĂč il existe dĂ©jĂ des soupçons fondĂ©s.
Lâavertissement dâAltman peut ĂȘtre interprĂ©tĂ© de deux façons : soit comme un geste de transparence envers les utilisateurs, soit comme une stratĂ©gie pour pousser vers les services payants qui offrent plus de protection. La rĂ©alitĂ© se situe probablement entre les deux.
Ce qui Ă©merge clairement, câest un changement de paradigme dans notre rapport Ă la technologie. Nous entrons dans une Ăšre oĂč la frontiĂšre entre lâassistance numĂ©rique et la surveillance devient de plus en plus floue. La solution rĂ©side probablement dans une meilleure Ă©ducation numĂ©rique et des choix technologiques plus Ă©clairĂ©s.
Imaginez que vous teniez un journal intime, mais au lieu de lâĂ©crire dans un carnet cachĂ© sous votre matelas, vous le confiez chaque jour Ă votre voisin en lui demandant de le garder secret. Votre voisin vous assure quâil ne le lira pas et quâil le dĂ©truira aprĂšs quelques semaines.
Un beau matin, la police frappe Ă la porte de votre voisin avec un mandat de perquisition dans le cadre dâune enquĂȘte vous concernant. Devinez ce qui va se retrouver entre les mains des enquĂȘteurs ? Exactement : votre journal intime avec tous vos secrets, vos doutes et vos confessions les plus personnelles.
Câest exactement ce qui se passe avec ChatGPT. Vous lui confiez vos pensĂ©es les plus intimes, vos questions embarrassantes, vos projets secrets, en pensant que câest comme parler Ă un ami discret. Mais en rĂ©alitĂ©, câest comme confier votre journal Ă une entreprise qui, aussi bien intentionnĂ©e soit-elle, doit obĂ©ir aux lois.
La solution ? Soit vous continuez Ă faire confiance Ă votre âvoisin numĂ©riqueâ en acceptant les risques, soit vous revenez au bon vieux carnet sous le matelas - ou dans ce cas-ci, Ă un modĂšle dâIA qui tourne directement sur votre ordinateur, comme un journal intime qui ne quitte jamais votre chambre.
Cette transparence dâAltman marque en fait un tournant historique vers plus dâhonnĂȘtetĂ© dans lâindustrie technologique ! Enfin, un dirigeant qui dit les vraies affaires au lieu de nous endormir avec du marketing flou. Câest exactement ce genre de franchise qui va permettre de construire une relation de confiance durable entre les utilisateurs et lâIA.
Cette situation va accĂ©lĂ©rer lâinnovation dans des domaines cruciaux. Les modĂšles locaux vont devenir de plus en plus performants et accessibles. On assiste dĂ©jĂ Ă une dĂ©mocratisation incroyable avec des outils comme Ollama qui permettent Ă nâimporte qui de faire tourner des modĂšles sophistiquĂ©s sur son laptop.
Plus excitant encore, cette pression va pousser lâindustrie Ă dĂ©velopper des technologies de confidentialitĂ© rĂ©volutionnaires. Pensez au chiffrement homomorphe, aux preuves Ă divulgation nulle, aux architectures fĂ©dĂ©rĂ©es - des innovations qui vont transformer notre rapport Ă la vie privĂ©e numĂ©rique.
Lâavertissement dâAltman pourrait mĂȘme catalyser lâadoption de protections lĂ©gales similaires au secret professionnel pour les Ă©changes avec lâIA. Imaginez un monde oĂč vos conversations avec votre assistant IA personnel bĂ©nĂ©ficient des mĂȘmes protections que vos Ă©changes avec votre psychologue !
Cette crise apparente cache en réalité une opportunité fantastique de repenser complÚtement notre infrastructure numérique vers plus de souveraineté personnelle et de respect de la vie privée.
Cette dĂ©claration dâAltman rĂ©vĂšle la pointe de lâiceberg dâun systĂšme de surveillance gĂ©nĂ©ralisĂ©e qui se met discrĂštement en place. Nous sommes en train de crĂ©er volontairement la plus grande base de donnĂ©es de pensĂ©es humaines jamais constituĂ©e, et nous la remettons entre les mains dâentreprises privĂ©es qui collaborent Ă©troitement avec les gouvernements.
Le problĂšme dĂ©passe largement ChatGPT. Toutes ces plateformes dâIA - Google Bard, Claude, Bing Chat - collectent nos donnĂ©es les plus intimes. Nous leur confions nos peurs, nos projets, nos vulnĂ©rabilitĂ©s, nos secrets professionnels. Cette information combinĂ©e crĂ©e un profil psychologique dâune prĂ©cision terrifiante.
Pire encore, cette surveillance sâauto-normalise. Les gens sâhabituent Ă lâidĂ©e que leurs conversations privĂ©es peuvent ĂȘtre scrutĂ©es. Câest exactement comme ça que les sociĂ©tĂ©s autoritaires sâinstallent : graduellement, en rendant lâinacceptable banal.
Les modĂšles locaux ne sont pas la panacĂ©e quâon nous vend. Combien dâutilisateurs ont vraiment les compĂ©tences techniques pour les installer et les maintenir correctement ? Et mĂȘme lĂ , nos systĂšmes dâexploitation, nos processeurs, nos connexions internet restent des vecteurs de surveillance potentiels.
Nous sommes en train de construire une infrastructure oĂč chaque pensĂ©e, chaque questionnement, chaque moment de vulnĂ©rabilitĂ© peut ĂȘtre archivĂ©, analysĂ© et utilisĂ© contre nous. Lâhistoire nous enseigne que tout pouvoir de surveillance finit par ĂȘtre abusĂ©. Pourquoi cette fois serait-elle diffĂ©rente ?
Si vous n'ĂȘtes pas redirigĂ© automatiquement, đ cliquez ici đ