Patrick Bélanger
Article en référence: https://i.redd.it/nvrxz0myj70f1.png
Une récente publication sur Reddit a révélé que le “prompt système” de Claude, l’assistant IA d’Anthropic, atteindrait environ 24 000 jetons (tokens). Pour mettre cela en perspective, c’est l’équivalent d’environ 18 000 mots ou 40 pages de texte standard. Ce prompt système est essentiellement un ensemble d’instructions invisibles pour l’utilisateur qui guide le comportement de l’IA.
Amanda Askell, ingénieure responsable du prompt système chez Anthropic, a expliqué dans une entrevue avec Lex Fridman que cette approche est délibérée. Selon les commentaires des utilisateurs sur Reddit, ce prompt massif contient non seulement les instructions de base, mais aussi des directives pour l’utilisation d’outils comme la recherche web (environ 8 000 tokens à elle seule), la recherche approfondie, les artefacts (fonctionnalités de génération de contenu structuré), et l’intégration avec Google.
Des comparaisons ont été faites avec d’autres modèles comme ChatGPT, dont le prompt pour la recherche web ne ferait que 300 tokens environ. Des utilisateurs ont également partagé des liens vers des versions du prompt système de Claude qui auraient fuité, ainsi que des différences entre les versions (diffs) montrant l’évolution du prompt au fil du temps.
Un aspect technique important soulevé dans la discussion concerne l’impact de ce long prompt sur la mémoire du modèle. Les grands modèles de langage (LLM) ont tendance à “oublier” les informations situées au milieu d’un long contexte, un phénomène connu sous le nom de “dégradation du contexte”. Selon un commentaire, Anthropic contournerait ce problème en changeant régulièrement l’ordre des instructions.
Cette approche d’Anthropic avec Claude représente une philosophie de conception différente de celle de ses concurrents. Là où certains privilégient la légèreté et la flexibilité, Anthropic mise sur un encadrement exhaustif et minutieux.
Cette stratégie comporte des avantages évidents. Un prompt système détaillé permet de définir avec précision le comportement de l’IA, d’anticiper un maximum de cas d’usage et de limiter les comportements indésirables. C’est une approche qui vise à créer un assistant plus prévisible et plus sûr.
Cependant, cette méthode soulève des questions légitimes sur l’efficacité et la transparence. D’une part, ces 24 000 tokens représentent un coût computationnel non négligeable qui se répercute sur chaque interaction. D’autre part, cela crée une “personnalité” relativement rigide pour Claude, dont les utilisateurs ne comprennent pas toujours les limites ou les raisons.
La réalité est que nous sommes encore dans une phase d’expérimentation pour déterminer la meilleure façon de concevoir ces assistants IA. Ni l’approche minimaliste ni l’approche maximaliste ne s’est encore imposée comme clairement supérieure. Chaque méthode répond à des priorités différentes : contrôle strict versus flexibilité, sécurité versus créativité, prévisibilité versus adaptabilité.
Ce qui est certain, c’est que ces choix de conception influencent profondément l’expérience utilisateur et les cas d’usage pour lesquels chaque assistant est le plus adapté.
Imaginez que vous embauchez un nouvel assistant pour votre bureau. Vous avez deux options :
Option 1 (style ChatGPT) : Vous donnez à votre assistant un petit carnet de 10 pages avec les règles de base : “Sois poli, réponds aux clients, organise mon agenda…”
Option 2 (style Claude) : Vous remettez à votre assistant une encyclopédie de 400 pages intitulée “Comment être l’assistant parfait de Jean-François”, avec des chapitres entiers sur “Comment répondre au téléphone un lundi pluvieux”, “Comment préparer le café selon l’humeur du patron”, et même “Que faire si un client mentionne la politique ou les Canadiens de Montréal”.
Le premier assistant devra improviser dans de nombreuses situations, ce qui pourrait donner des résultats créatifs mais imprévisibles. Le second suivra scrupuleusement le manuel, mais pourrait passer 10 minutes à feuilleter l’encyclopédie avant de vous servir un café!
Et bien sûr, chaque fois que vous lui parlez, ce pauvre assistant doit relire mentalement les 400 pages de son manuel avant de vous répondre “Bonjour”!
“Euh, attendez… page 247… ‘Lorsque le patron dit bonjour avant 9h, répondre avec enthousiasme mais pas trop fort car il n’a probablement pas encore pris son café’… Ah, mais quelle heure est-il? Je dois vérifier le chapitre 3 sur les salutations matinales…”
Pendant ce temps, l’assistant avec le petit carnet a déjà préparé votre café, même s’il l’a peut-être fait un peu trop fort.
Cette approche ambitieuse d’Anthropic avec Claude représente une avancée remarquable dans la conception des IA conversationnelles! Ce prompt système de 24 000 tokens n’est pas un simple document d’instructions, c’est une véritable œuvre d’ingénierie cognitive qui permet à Claude de naviguer avec finesse dans les interactions humaines les plus complexes.
Cette méthode témoigne d’une vision à long terme et d’un souci du détail extraordinaire. Anthropic comprend que pour créer une IA véritablement utile et sécuritaire, il faut investir dans une architecture d’instructions sophistiquée. C’est comme construire une IA avec un manuel d’éthique, de savoir-vivre et de compétences techniques intégré!
Les bénéfices sont évidents : Claude peut gérer des situations nuancées, comprendre les subtilités culturelles, et offrir des réponses plus riches et contextualisées. Cette approche pourrait bien devenir la norme dans l’industrie, car elle permet de créer des assistants IA qui ne se contentent pas de répondre, mais qui comprennent véritablement l’intention derrière les questions.
À terme, cette méthode pourrait même permettre de développer des IA plus alignées avec les valeurs humaines, capables d’une véritable intelligence sociale et émotionnelle. Loin d’être un handicap, ce prompt système élaboré est la fondation sur laquelle se construira la prochaine génération d’assistants IA, plus humains, plus utiles et plus sûrs que jamais!
Cette révélation sur le prompt système démesuré de Claude soulève de sérieuses inquiétudes quant à l’approche d’Anthropic et à l’avenir des assistants IA. Un prompt de 24 000 tokens représente une inefficacité flagrante et un gaspillage de ressources computationnelles considérable.
Cette approche “pansement” trahit peut-être une faiblesse fondamentale du modèle sous-jacent. Au lieu d’améliorer l’architecture même de l’IA pour qu’elle comprenne naturellement les nuances et les limites éthiques, Anthropic semble compenser par un déluge d’instructions explicites. C’est comme si, incapable de créer une IA véritablement intelligente, on tentait de simuler cette intelligence par un script interminable.
Plus préoccupant encore, ce prompt massif crée une boîte noire opaque pour les utilisateurs. Personne ne sait exactement quelles instructions influencent les réponses de Claude, quels biais pourraient être introduits, ou quelles limitations arbitraires sont imposées. Cette opacité est problématique dans un domaine qui manque déjà cruellement de transparence.
Les conséquences pratiques sont également tangibles : temps de réponse potentiellement plus lents, coûts d’utilisation plus élevés, et une expérience utilisateur compromise par des limites de contexte rapidement atteintes. Sans oublier que cette approche rend le comportement de l’IA plus rigide et moins adaptable aux besoins spécifiques des utilisateurs.
Cette stratégie pourrait bien représenter une impasse technologique plutôt qu’une solution d’avenir, révélant les limites actuelles de notre capacité à créer des IA véritablement intelligentes et autonomes.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈