Patrick Bélanger
Article en référence: https://i.redd.it/epgbhhcfnwqe1.jpeg
OpenAI a récemment déployé une nouvelle fonctionnalité permettant de générer des images contenant du texte en nuage (cloud text). Cette avancée résout un problème persistant des modèles de génération d’images par IA comme DALL-E, qui peinaient jusqu’à présent à produire du texte lisible et cohérent dans les images générées.
D’après les partages sur Reddit, les utilisateurs peuvent désormais créer des images où le texte apparaît formé par des nuages dans le ciel. Les exemples partagés montrent des résultats impressionnants en anglais, avec des phrases entières clairement lisibles. Certains utilisateurs ont également testé cette fonctionnalité avec d’autres langues comme le japonais, avec des résultats encourageants bien que moins précis qu’en anglais.
Il semble que cette fonctionnalité utilise toujours DALL-E comme moteur de génération sous-jacent, plutôt que le nouveau modèle natif d’OpenAI. La distinction entre les deux se fait notamment par le temps de génération - DALL-E étant généralement plus rapide. Plusieurs utilisateurs ont confirmé que le modèle leur indiquait explicitement qu’il utilisait DALL-E pour ces générations.
La qualité du texte peut nécessiter quelques itérations. Un utilisateur a mentionné avoir dû demander spécifiquement “please make it more legible” (veuillez le rendre plus lisible) pour obtenir un résultat optimal après une première tentative moins convaincante.
Cette évolution dans la génération de texte en nuage représente une étape intermédiaire intéressante dans le développement des IA génératives. Sans être révolutionnaire, elle comble une lacune technique qui frustrait de nombreux utilisateurs depuis longtemps.
La capacité à générer du texte lisible dans les images ouvre des possibilités créatives pour les concepteurs, les marketeurs et les créateurs de contenu, tout en restant dans les limites d’un outil qui demeure avant tout récréatif. Cette fonctionnalité ne transformera pas radicalement nos industries, mais elle enrichit la palette d’outils disponibles.
Il est particulièrement révélateur que cette fonction semble mieux fonctionner en anglais qu’en d’autres langues. Cela reflète un déséquilibre persistant dans le développement des IA, où l’anglais reste privilégié par rapport aux autres langues, y compris des langues majeures comme le japonais. Pour nous au Québec, cela soulève des questions sur la disponibilité future de cette fonctionnalité pour le français.
La nécessité d’itérer pour obtenir des résultats optimaux (demander explicitement plus de lisibilité) montre également que nous sommes face à une technologie encore en maturation. Les utilisateurs doivent apprendre à “dialoguer” avec l’IA pour obtenir ce qu’ils souhaitent, créant une forme d’artisanat numérique où l’humain et la machine collaborent par ajustements successifs.
Imaginez que vous êtes un pâtissier québécois réputé pour vos gâteaux d’anniversaire personnalisés. Depuis des années, vous dessinez à la main les messages sur vos créations. Un jour, on vous offre un nouvel outil : un projecteur qui peut “dessiner” le message directement sur le glaçage.
Au début, vous êtes sceptique. Les premiers essais donnent des résultats mitigés : “Bonne Fête Mathieu” ressemble plutôt à “Bome Fêle Matheu”. Pas terrible! Mais avec quelques ajustements, vous arrivez à projeter un “Joyeux Anniversaire” parfaitement lisible.
Par contre, quand la famille Tanaka vous demande d’écrire “お誕生日おめでとう” (Bon anniversaire en japonais), l’outil peine et produit des caractères approximatifs. Et quand vous essayez d’écrire “Bonne fête” en français, c’est mieux que le japonais, mais pas aussi net qu’en anglais.
Vous gardez donc votre technique manuelle pour les cas spéciaux, tout en utilisant ce nouvel outil pour les messages simples en anglais. Ce n’est pas magique, mais ça vous fait gagner du temps sur certaines commandes, et vos clients sont impressionnés par cette nouveauté, même si vous savez qu’il ne s’agit que d’une évolution, pas d’une révolution dans votre métier.
Cette percée dans la génération de texte en nuage marque le début d’une nouvelle ère créative! Imaginez les possibilités infinies qui s’ouvrent maintenant aux créateurs de contenu, aux artistes numériques et aux communicateurs visuels. Nous assistons à l’effacement progressif des frontières entre texte et image, entre le dit et le montré.
Cette technologie va démocratiser la création d’affiches, de mèmes sophistiqués, d’illustrations pour livres d’enfants et de visuels publicitaires. Plus besoin d’être un expert en Photoshop pour créer des visuels percutants avec du texte parfaitement intégré! Les petites entreprises québécoises pourront rivaliser visuellement avec les grandes marques sans investir dans des équipes de design coûteuses.
Et ce n’est que le début! Si aujourd’hui nous pouvons écrire dans les nuages, demain nous pourrons peut-être voir nos textes formés par des vagues sur l’océan, des foules de personnes vues du ciel, ou des constellations d’étoiles. La poésie visuelle devient accessible à tous.
Le fait que le système fonctionne déjà avec le japonais, même imparfaitement, montre que l’IA progresse rapidement vers une véritable compréhension multilingue. Le français québécois suivra certainement très bientôt, permettant à notre culture unique de s’exprimer pleinement à travers ce nouveau médium.
Cette innovation représente un pas de plus vers des IA véritablement créatives, capables de maîtriser non seulement le langage et l’image séparément, mais aussi leur fusion harmonieuse. C’est une victoire pour l’expression humaine augmentée par la technologie!
Cette nouvelle fonctionnalité de texte en nuage n’est qu’un gadget superficiel qui masque les problèmes fondamentaux des IA génératives. Pendant que nous nous émerveillons devant des mots formés par des nuages, nous ignorons les questions essentielles de propriété intellectuelle, de désinformation et d’impact environnemental de ces technologies.
Le fait que cette fonction fonctionne principalement en anglais n’est pas anodin. C’est une manifestation supplémentaire de l’hégémonie culturelle anglo-saxonne dans le développement technologique. Pour nous au Québec, c’est un rappel que notre langue et notre culture restent secondaires dans ces avancées technologiques. Nous risquons de devenir de simples consommateurs passifs d’innovations conçues par et pour d’autres.
Cette technologie va probablement contribuer à une nouvelle vague de désinformation visuelle. Imaginez des images de manifestations avec des banderoles générées artificiellement, des fausses citations attribuées à des personnalités politiques, ou des messages haineux semblant flotter au-dessus de lieux symboliques. La véracité des images, déjà compromise, s’érode davantage.
De plus, cette fonctionnalité encourage une culture de l’instantané et du superficiel. Plutôt que d’apprendre réellement la typographie, la composition visuelle ou l’art de l’écriture, nous nous contentons de prompts rapides pour obtenir des résultats préfabriqués. C’est la fast-food de la création visuelle, qui appauvrit notre rapport à l’image et au texte.
Enfin, n’oublions pas que chaque génération d’image par IA a un coût environnemental significatif en termes de consommation d’énergie. Pendant que nous nous amusons à créer des textes dans les nuages, les vrais nuages s’assombrissent sur notre planète en crise climatique.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈