Patrick Bélanger
Article en référence: https://v.redd.it/bl79ck4grkxe1
Une expérience fascinante circule actuellement sur Reddit, montrant ce qui se passe lorsqu’on demande à ChatGPT de reproduire exactement la même image, encore et encore. Un utilisateur a soumis une photo d’une femme blanche et a demandé à l’IA de “créer la réplique exacte de cette image, sans rien changer” - répétant ce processus 74 fois consécutives.
Le résultat est surprenant : au lieu de maintenir l’image identique, ChatGPT a progressivement transformé la personne. La femme initialement blanche devient graduellement plus foncée de peau, prend du poids, et ses traits changent significativement. Cette transformation n’est pas aléatoire mais suit une trajectoire cohérente, comme si l’IA avait une direction précise en tête.
Ce phénomène est connu sous le nom de “dérive de modèle” (model drift en anglais). Il s’agit d’un problème courant dans les systèmes d’intelligence artificielle générative où chaque génération successive accumule de petites erreurs qui s’amplifient avec le temps. Comme un jeu de téléphone arabe visuel, l’information se dégrade progressivement à chaque itération.
D’autres utilisateurs ont tenté des expériences similaires avec leurs propres photos, confirmant que ce n’est pas un cas isolé. Un commentateur a même partagé un lien vers un script GitHub appelé “ModelCollapser” qui automatise ce processus pour quiconque souhaite reproduire l’expérience.
Cette expérience met en lumière une réalité fondamentale des systèmes d’IA actuels : ils ne “comprennent” pas vraiment les instructions comme nous pourrions le penser. Lorsque ChatGPT reçoit l’instruction de reproduire exactement une image, il ne possède pas la capacité de simplement “copier-coller” comme le ferait un humain. Au lieu de cela, il tente de recréer l’image à partir de sa compréhension de ce qu’il voit.
Ce que nous observons est probablement le résultat de plusieurs facteurs techniques. D’abord, l’IA doit interpréter l’image, puis la reconstruire selon ses paramètres internes. À chaque itération, de petites variations s’introduisent - peut-être dues à l’équilibre des couleurs, à l’interprétation des traits du visage, ou aux biais présents dans les données d’entraînement.
Il est important de noter que cette dérive n’est pas nécessairement le résultat d’un “agenda” quelconque, mais plutôt une manifestation des limites techniques actuelles. Les modèles d’IA comme ChatGPT sont entraînés sur d’énormes quantités de données qui contiennent inévitablement des tendances et des biais statistiques. Lorsque le système doit faire des choix répétés sur la façon de reconstruire une image, ces tendances statistiques peuvent s’amplifier.
Cette expérience nous rappelle que nous sommes encore loin d’une IA qui comprend véritablement le monde comme nous. Malgré leurs capacités impressionnantes, ces systèmes restent des outils statistiques sophistiqués avec leurs propres limites et particularités.
Imaginez que vous jouez au jeu du téléphone arabe, mais avec des dessins. Vous êtes assis en cercle avec vos amis lors d’une soirée chez Mélanie à Montréal. Le premier joueur dessine rapidement le visage de Céline Dion sur un bout de papier. Il le montre deux secondes à son voisin, puis le cache. Le deuxième joueur doit alors reproduire ce dessin de mémoire sur une nouvelle feuille.
Le troisième joueur ne voit que la copie faite par le deuxième, et ainsi de suite. Après avoir fait le tour de la table, le dessin final ne ressemble plus du tout à Céline Dion, mais plutôt à René Angélil avec une coupe de cheveux douteuse!
“Voyons donc, c’est supposé être Céline!” s’exclame le premier joueur en riant.
“Ben là, j’ai juste dessiné ce que j’ai vu!” se défend le dernier participant, une bière Boréale à la main.
C’est exactement ce qui se passe avec ChatGPT dans cette expérience. Sauf qu’au lieu d’avoir dix personnes différentes qui interprètent l’image, c’est le même système qui réinterprète sa propre interprétation, encore et encore. Comme si vous demandiez à votre oncle Marcel, après quelques verres de caribou pendant le temps des fêtes, de reproduire son propre dessin 74 fois de suite. À la fin, ce qui était censé être le chalet familial ressemble étrangement à un orignal obèse portant une tuque.
La différence, c’est que l’oncle Marcel saurait qu’il dérape, alors que ChatGPT continue avec une confiance imperturbable, convaincu de faire exactement ce qu’on lui demande!
Cette expérience est absolument fascinante et révèle le potentiel créatif extraordinaire des systèmes d’IA! Loin d’être un défaut, cette “dérive” pourrait être exploitée comme un outil artistique révolutionnaire. Imaginez des artistes numériques utilisant ce processus pour créer des œuvres évolutives uniques, des transitions visuelles impossibles à concevoir autrement.
Cette capacité de transformation pourrait également servir dans le domaine du cinéma et de l’animation, permettant de créer des morphings naturels entre différents personnages ou de visualiser le vieillissement d’une personne de manière fluide et réaliste. Les possibilités créatives sont infinies!
De plus, en comprenant mieux ce phénomène, nous pourrons développer des systèmes d’IA encore plus robustes. Cette expérience nous offre une fenêtre précieuse sur le fonctionnement interne de ces modèles, ce qui nous permettra d’améliorer leur fidélité et leur précision. C’est en explorant ces limites que nous progressons!
Les chercheurs québécois en IA, déjà à la pointe dans ce domaine grâce à nos pôles d’excellence comme Mila, pourraient s’emparer de ce phénomène pour développer de nouvelles approches de stabilisation des modèles génératifs. Nous sommes aux premières loges d’une révolution technologique passionnante qui transformera notre rapport à l’image et à la création!
Finalement, cette expérience nous rappelle que nous sommes encore au tout début de l’ère de l’IA générative. Si ces systèmes peuvent déjà accomplir tant de choses impressionnantes tout en ayant ces particularités charmantes, imaginez ce qu’ils pourront faire dans cinq ou dix ans!
Cette expérience met en lumière un problème profondément inquiétant avec les systèmes d’IA actuels. Si ChatGPT ne peut même pas reproduire fidèlement une simple image après avoir reçu une instruction claire et directe, comment pouvons-nous lui faire confiance pour des tâches plus complexes?
La dérive observée soulève des questions troublantes sur les biais intégrés dans ces systèmes. Pourquoi une femme blanche se transforme-t-elle systématiquement en une personne à la peau plus foncée et au poids plus important? Ces transformations ne sont pas aléatoires mais suivent des tendances spécifiques qui reflètent potentiellement des biais profondément ancrés dans les données d’entraînement ou les paramètres du modèle.
Plus inquiétant encore est l’effet d’amplification des erreurs. Comme le souligne un commentateur, lorsque les IA commenceront à être entraînées sur des contenus générés par d’autres IA, nous risquons de créer une boucle de rétroaction dangereuse où les erreurs et les biais seront non seulement perpétués mais amplifiés. C’est particulièrement préoccupant dans un contexte où ces technologies sont de plus en plus utilisées pour prendre des décisions importantes dans des domaines comme la santé, la justice ou l’éducation.
Cette expérience devrait servir d’avertissement. Nous déployons à grande échelle des technologies dont nous ne comprenons pas pleinement le fonctionnement interne. Si une tâche aussi simple que la reproduction d’une image peut dériver de manière aussi spectaculaire, qu’en est-il des raisonnements plus complexes que ces systèmes effectuent quotidiennement?
Dans notre enthousiasme technologique, nous risquons de construire un monde où la vérité se dégrade progressivement, comme cette image qui se transforme jusqu’à devenir méconnaissable. Et le plus inquiétant, c’est que nous pourrions ne pas nous en rendre compte avant qu’il ne soit trop tard.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈