Patrick Bélanger
Article en référence: https://i.redd.it/5bo3l9c6x4ie1.jpeg
La communautĂ© tech dĂ©bat actuellement de la nature âpureâ des modĂšles de langage comme O1 et R1. Le dĂ©bat a Ă©tĂ© dĂ©clenchĂ© par Gary Marcus, qui affirme que ces modĂšles ne sont pas de âpursâ LLM (Large Language Models) mais plutĂŽt des systĂšmes complexes.
DeepSeek R1 est en rĂ©alitĂ© un modĂšle de type âdecoder-only transformerâ utilisant une architecture MoE (Mixture of Experts). Cette architecture permet au modĂšle dâactiver diffĂ©rents âexpertsâ spĂ©cialisĂ©s selon le type de tĂąche. Le modĂšle a Ă©tĂ© entraĂźnĂ© avec une technique appelĂ©e GRPO (Generalized Reward-Powered Optimization), une version amĂ©liorĂ©e de PPO (Proximal Policy Optimization).
Quant Ă O1 dâOpenAI, bien que son architecture exacte ne soit pas publique, lâentreprise a confirmĂ© quâil sâagit bien dâun LLM unique et non dâun systĂšme complexe. La particularitĂ© de ces modĂšles est leur capacitĂ© Ă gĂ©nĂ©rer des chaĂźnes de rĂ©flexion (Chain of Thought) avant de produire une rĂ©ponse finale.
Le dĂ©bat sur la âpuretĂ©â des LLM semble plus sĂ©mantique que technique. Que ce soit R1 ou O1, ces modĂšles restent fondamentalement des transformers qui prĂ©disent le prochain token. Leur particularitĂ© rĂ©side dans leur entraĂźnement et leur façon de structurer leur raisonnement, pas dans leur architecture fondamentale.
La vraie question nâest peut-ĂȘtre pas de savoir sâils sont âpursâ, mais plutĂŽt de comprendre comment leurs diffĂ©rentes approches dâentraĂźnement influencent leurs capacitĂ©s. Lâimportant nâest pas tant la classification que les rĂ©sultats obtenus.
Imaginez un chef cuisinier. Un chef âtraditionnelâ qui cuisine Ă lâinstinct serait comme un LLM classique. Maintenant, si ce mĂȘme chef prend lâhabitude dâĂ©crire sa recette Ă©tape par Ă©tape avant de cuisiner, est-il moins chef pour autant? Câest essentiellement ce que font O1 et R1 : ils ârĂ©flĂ©chissent Ă voix hauteâ avant de donner leur rĂ©ponse finale.
Câest comme si on reprochait Ă un mathĂ©maticien dâutiliser un brouillon pour rĂ©soudre un problĂšme complexe plutĂŽt que de donner directement la rĂ©ponse. Le processus ne change pas la nature du mathĂ©maticien, il le rend juste plus mĂ©thodique.
Cette évolution des LLM vers des modÚles capables de raisonnement structuré représente une avancée majeure! La capacité à générer des chaßnes de réflexion explicites est exactement ce dont nous avions besoin pour des IA plus fiables et transparentes.
Ces dĂ©veloppements ouvrent la voie Ă des assistants IA vraiment utiles, capables non seulement de donner des rĂ©ponses, mais aussi dâexpliquer leur raisonnement. Câest un pas de plus vers des IA vĂ©ritablement comprĂ©hensibles et dignes de confiance.
La complexification des modĂšles de langage, quâelle soit architecturale ou dans leur processus de raisonnement, nous Ă©loigne de la comprĂ©hension fondamentale de leur fonctionnement. Plus nous ajoutons de couches dâabstraction, plus il devient difficile de prĂ©dire et contrĂŽler leur comportement.
De plus, cette tendance Ă âcacherâ certains processus de raisonnement (comme dans O1) soulĂšve des questions Ă©thiques. Si nous ne pouvons pas voir ou comprendre comment ces modĂšles arrivent Ă leurs conclusions, comment pouvons-nous leur faire confiance pour des dĂ©cisions importantes?
Si vous n'ĂȘtes pas redirigĂ© automatiquement, đ cliquez ici đ