Dario Amodei d Anthropic avait prédit que l IA écrirait 90% du code en 3-6 mois. On y est presque et... c est raté! 😅 Les devs utilisent l IA mais restent indispensables pour guider, réviser et corriger. L autonomie totale, c est pas pour demain! 🤖💻

Article en référence: https://www.reddit.com/r/singularity/comments/1mch6sg/anthropic_ceo_ai_will_write_90_of_all_code_36/

Récapitulatif factuel

En mars 2024, Dario Amodei, PDG d’Anthropic (la compagnie derrière Claude), a fait une prédiction audacieuse : l’intelligence artificielle écrirait 90% de tout le code informatique dans les 3 à 6 mois suivants. Nous voilà maintenant à quelques semaines de cette échéance, et la communauté des développeurs sur Reddit fait le bilan.

Pour comprendre l’enjeu, il faut d’abord saisir ce qu’on entend par “écrire du code”. Il s’agit de créer les instructions informatiques qui font fonctionner nos applications, sites web et logiciels. Traditionnellement, cette tâche était exclusivement humaine, nécessitant des années de formation et une compréhension approfondie des langages de programmation.

Les témoignages des développeurs professionnels révèlent une réalité nuancée. Certains rapportent que l’IA génère effectivement une grande portion de leur code - parfois 50 à 70% - mais avec d’importantes nuances. Un développeur senior explique : “Claude génère bien plus de 90% de mon code, mais l’autonomie n’est tout simplement pas là. Tu ne peux pas le laisser tourner seul longtemps, sinon il commence à halluciner complètement.”

Les outils actuels comme Claude Code, GitHub Copilot et ChatGPT excellent dans certaines tâches : l’autocomplétion, la génération de code répétitif, et la création de prototypes rapides. Cependant, ils peinent encore avec les projets complexes, les architectures sophistiquées, et surtout, la compréhension du contexte métier spécifique à chaque entreprise.

Un aspect crucial souvent négligé : même quand l’IA “écrit” 90% du code, le développeur humain reste indispensable pour définir les spécifications, réviser le code, corriger les erreurs, et s’assurer que tout fonctionne harmonieusement dans l’écosystème existant.

Point de vue neutre

La prédiction de Dario Amodei illustre parfaitement le défi de prédire l’évolution technologique : la différence entre ce qui est techniquement possible et ce qui est pratiquement réalisable à grande échelle.

D’un côté, les capacités techniques existent bel et bien. Les outils d’IA peuvent effectivement générer des quantités impressionnantes de code fonctionnel. Mais d’un autre côté, l’adoption massive dans l’industrie suit une courbe beaucoup plus lente que les avancées technologiques pures.

Plusieurs facteurs expliquent cet écart. D’abord, l’inertie organisationnelle : les grandes entreprises, particulièrement dans les secteurs réglementés comme la finance ou la santé, adoptent ces technologies avec prudence. Ensuite, la courbe d’apprentissage : maîtriser efficacement ces outils d’IA demande du temps et de la pratique.

Il y a aussi une question de définition. Quand on dit que l’IA “écrit 90% du code”, parle-t-on du nombre de caractères tapés, des lignes de code générées, ou de la valeur économique créée ? Un développeur peut utiliser l’IA pour générer 1000 lignes de code boilerplate en quelques minutes, mais passer des heures à peaufiner les 100 lignes qui constituent le cœur logique de l’application.

La réalité actuelle semble se situer quelque part entre 30% et 50% de code généré par IA dans les entreprises qui ont adopté ces outils, avec une grande variabilité selon le type de projet et l’expertise de l’équipe. C’est déjà révolutionnaire, même si c’est loin des 90% annoncés.

Exemple

Imaginez que vous voulez rénover votre cuisine. Vous engagez un assistant ultra-efficace qui peut découper, visser, poncer et peindre à une vitesse phénoménale. En théorie, cet assistant pourrait faire 90% du travail physique.

Mais voici le hic : cet assistant a besoin d’instructions constantes. “Coupe cette planche à 73,5 cm”, “Non, pas cette vis, l’autre”, “Attention, ce mur cache des fils électriques”. Sans vos directives précises, il pourrait très bien installer les armoires à l’envers ou percer un tuyau d’eau.

De plus, certaines tâches restent entièrement de votre ressort : choisir le design, comprendre les contraintes de votre espace, négocier avec l’inspecteur municipal, et surtout, avoir la vision d’ensemble de ce à quoi devrait ressembler le résultat final.

Votre assistant génère peut-être 90% des coups de marteau et des tours de vis, mais vous restez l’architecte, le superviseur et le responsable qualité. Et quand quelque chose ne va pas - disons qu’il a mal interprété vos instructions et installé l’évier dans le garde-manger - c’est vous qui devez diagnostiquer le problème et le corriger.

C’est exactement ce qui se passe avec l’IA et le code aujourd’hui. Elle peut “marteler” très vite, mais elle a encore besoin d’un contremaître humain pour s’assurer que la maison ne s’effondre pas.

Point de vue optimiste

Cette prédiction de Dario Amodei, même si elle semble manquer sa cible temporelle, pointe vers une révolution qui est déjà en marche et qui va s’accélérer exponentiellement.

Regardons les signaux positifs : GPT-5 arrive bientôt, et si les rumeurs sont vraies, il pourrait représenter un bond qualitatif majeur. Gemini 2.5 impressionne déjà les développeurs par sa capacité de raisonnement. Les outils comme Claude Code s’améliorent à un rythme effréné, et chaque mise à jour apporte des capacités qui semblaient impossibles quelques mois auparavant.

Plus important encore, nous assistons à l’émergence d’une nouvelle génération de développeurs qui grandissent avec ces outils. Pour eux, coder avec l’IA n’est pas une adaptation, c’est leur façon naturelle de travailler. Ces “vibe coders” développent des techniques et des workflows que nous commençons à peine à comprendre.

L’effet multiplicateur est déjà tangible. Des développeurs rapportent être 2 à 5 fois plus productifs sur certaines tâches. Imaginez quand cette productivité se généralisera et que les outils deviendront encore plus sophistiqués. Nous pourrions voir une explosion de créativité logicielle, où des idées qui prenaient des mois à implémenter pourront être prototypées en quelques jours.

Et n’oublions pas l’effet de démocratisation : des milliers de personnes qui n’auraient jamais pu coder créent maintenant des applications, des scripts, des solutions. Cette explosion de création pourrait effectivement faire que l’IA génère 90% du code total produit, même si ce n’est pas encore le cas dans les entreprises traditionnelles.

La prédiction de Dario n’était peut-être pas fausse sur le fond, juste prématurée de quelques mois. L’avenir arrive plus vite qu’on ne le pense.

Point de vue pessimiste

Cette prédiction ratée de Dario Amodei révèle un problème plus profond dans l’industrie de l’IA : la tendance systématique à survendre les capacités actuelles pour attirer les investissements et maintenir la hype.

Les témoignages de développeurs expérimentés sont éloquents. Beaucoup rapportent avoir abandonné ou drastiquement réduit leur utilisation d’outils d’IA après avoir réalisé que la maintenance du code généré était plus coûteuse que de l’écrire soi-même. Un développeur de 45 ans témoigne avoir passé une semaine à essayer de faire implémenter une simple bibliothèque par Claude, pour finalement obtenir “du code spaghetti avec huit idées d’implémentation différentes mélangées ensemble”.

Les limitations fondamentales persistent : les fenêtres de contexte insuffisantes, les hallucinations fréquentes, l’incapacité à maintenir une cohérence architecturale sur de gros projets. Et surtout, le problème de la “dette technique” : l’IA génère souvent du code qui fonctionne à court terme mais qui devient un cauchemar à maintenir.

Il y a aussi une question économique préoccupante. Les limites d’utilisation des outils premium sont rapidement atteintes, et les coûts s’accumulent. Un développeur mentionne avoir épuisé ses 20 millions de tokens en 1h30. À ce rythme, l’IA devient plus chère qu’un développeur humain.

Plus inquiétant encore : nous créons une génération de développeurs dépendants d’outils qu’ils ne comprennent pas vraiment. Que se passe-t-il quand l’IA produit du code subtilment défaillant ? Quand elle introduit des vulnérabilités de sécurité ? Quand elle “oublie” des cas limites critiques ?

La prédiction manquée de Dario pourrait être le symptôme d’une bulle technologique où les promesses dépassent largement les réalités. Et comme toutes les bulles, l’atterrissage risque d’être brutal.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈