Patrick Bélanger
Article en référence: https://www.reddit.com/gallery/1ip3vpa
Une Ă©tude rĂ©cente analyse la performance des modĂšles de langage dâOpenAI (O1 et O3-mini) dans la multiplication de grands nombres. Les rĂ©sultats sont prĂ©sentĂ©s sous forme de matrice de chaleur, oĂč lâaxe horizontal reprĂ©sente le nombre de chiffres du premier nombre et lâaxe vertical le nombre de chiffres du second. Les couleurs indiquent le taux de rĂ©ussite, allant de 0% Ă 100%.
Les modĂšles excellent dans les multiplications simples (1-9 chiffres), atteignant prĂšs de 100% de prĂ©cision. La performance diminue progressivement avec lâaugmentation du nombre de chiffres, particuliĂšrement au-delĂ de 10 chiffres. Pour les multiplications de nombres Ă 20 chiffres (soit environ 40 chiffres au total), le taux de rĂ©ussite chute significativement.
Cette expĂ©rience rĂ©vĂšle Ă la fois les forces et les limites actuelles des modĂšles de langage. Leur capacitĂ© Ă effectuer des calculs complexes sans calculatrice est impressionnante, mais leur performance dĂ©croissante avec la complexitĂ© des nombres souligne une limite fondamentale : ils nâont pas vraiment âapprisâ lâalgorithme de multiplication.
Contrairement Ă un humain qui peut dĂ©composer mĂ©thodiquement une multiplication complexe, les modĂšles semblent plutĂŽt reconnaĂźtre des patterns dans leurs donnĂ©es dâentraĂźnement. Câest comme si, au lieu dâapprendre la mĂ©thode, ils mĂ©morisaient des exemples.
Imaginez un Ă©tudiant qui prĂ©pare son examen de mathĂ©matiques. Au lieu dâapprendre la mĂ©thode de multiplication, il mĂ©morise toutes les multiplications possibles jusquâĂ 9x9. Il rĂ©ussira brillamment les calculs simples, mais dĂšs quâon lui demandera de multiplier 357 par 428, il commencera Ă transpirer!
Câest exactement ce qui se passe avec nos modĂšles de langage. Ils sont comme des Ă©tudiants qui ont une excellente mĂ©moire mais qui nâont pas vraiment compris la logique derriĂšre les opĂ©rations.
Ces rĂ©sultats sont extraordinaires! Pensez-y : un modĂšle de langage, conçu initialement pour traiter du texte, peut effectuer des calculs mentaux complexes avec une prĂ©cision remarquable. Câest comme si votre correcteur orthographique se mettait soudainement Ă rĂ©soudre des Ă©quations!
Cette capacitĂ© dĂ©montre lâĂ©mergence de compĂ©tences gĂ©nĂ©ralisĂ©es dans les IA. Si les modĂšles actuels peuvent dĂ©jĂ faire cela, imaginez les possibilitĂ©s futures. Nous sommes peut-ĂȘtre Ă lâaube dâune IA vĂ©ritablement polyvalente, capable de combiner raisonnement mathĂ©matique et linguistique de maniĂšre naturelle.
Ces rĂ©sultats confirment les limites fondamentales des modĂšles de langage actuels. MĂȘme une tĂąche aussi basique que la multiplication, quâun enfant de 10 ans peut rĂ©soudre avec du papier et un crayon, met en Ă©vidence leur incapacitĂ© Ă dĂ©velopper une vĂ©ritable comprĂ©hension algorithmique.
Cette expĂ©rience rĂ©vĂšle que nos IA actuelles ne font quâimiter superficiellement lâintelligence, sans dĂ©velopper de vĂ©ritable capacitĂ© de raisonnement. Si elles ne peuvent pas maĂźtriser des concepts mathĂ©matiques fondamentaux, comment pourrions-nous leur faire confiance pour des tĂąches plus complexes?
Si vous n'ĂȘtes pas redirigĂ© automatiquement, đ cliquez ici đ