Patrick Bélanger
Article en référence: https://i.redd.it/o2cd1y15e2te1.jpeg
Meta vient de lancer ses nouveaux modèles d’intelligence artificielle Llama 4, et les premiers benchmarks révèlent des performances mitigées. Deux modèles ont été officiellement présentés : Llama 4 Scout (109 milliards de paramètres) et Llama 4 Maverick (402 milliards de paramètres). Un troisième modèle, Behemoth (2 billions de paramètres), est encore en phase de développement.
Ces modèles utilisent une architecture MoE (Mixture of Experts), ce qui signifie qu’ils activent seulement une partie de leurs paramètres pour chaque tâche. Par exemple, bien que Scout possède 109 milliards de paramètres au total, seule une fraction est utilisée à chaque inférence. Cette approche permet théoriquement d’avoir des modèles plus grands mais plus efficaces en termes de calcul.
Les benchmarks montrent que Scout se positionne au niveau de modèles comme Qwen2.5-32B ou Mistral Small 3 24B, malgré sa taille bien plus importante. Il est particulièrement verbeux (produisant 1,57 fois plus de tokens que les modèles traditionnels) et présente des lacunes importantes en programmation.
Maverick, bien que plus performant, n’atteint pas les performances attendues pour un modèle de sa taille. Il se situe approximativement au niveau de Llama 3.3 70B ou DeepSeek V3, ce qui est décevant pour un modèle de 402 milliards de paramètres.
Un point important à noter est que ces modèles MoE nécessitent beaucoup plus de mémoire vive (RAM) pour fonctionner, ce qui les rend difficiles à utiliser sur des ordinateurs personnels standards, contrairement aux précédentes versions de Llama qui étaient accessibles aux passionnés disposant d’un matériel modeste.
L’arrivée de Llama 4 marque une évolution plutôt qu’une révolution dans le paysage des LLM open source. Meta semble avoir privilégié l’architecture MoE pour rester compétitif face aux géants comme Google et OpenAI, mais cette décision comporte des compromis significatifs.
D’un côté, cette approche permet à Meta de développer des modèles de très grande taille, potentiellement capables de rivaliser avec les meilleurs modèles propriétaires. De l’autre, elle sacrifie l’accessibilité qui faisait la force des précédentes versions de Llama, particulièrement appréciées par la communauté des développeurs indépendants et des chercheurs disposant de ressources limitées.
Les performances actuelles de ces modèles suggèrent que Meta est encore en phase d’adaptation à cette nouvelle architecture. Il est probable que nous verrons des améliorations significatives dans les prochains mois, notamment avec l’ajout de capacités de raisonnement qui manquent actuellement à ces modèles fondationnels.
La stratégie de Meta semble désormais clairement orientée vers les déploiements cloud et les utilisateurs professionnels, plutôt que vers les passionnés qui ont contribué à populariser les précédentes versions de Llama. C’est un choix commercial compréhensible, mais qui risque de fragmenter davantage l’écosystème des LLM entre solutions accessibles localement et solutions plus puissantes mais dépendantes du cloud.
En fin de compte, Llama 4 représente une étape intermédiaire dans l’évolution des LLM, avec ses forces et ses faiblesses, plutôt qu’une percée majeure qui redéfinirait le domaine.
Imaginez que vous êtes au Salon de l’Auto de Montréal. L’année dernière, Meta avait présenté la Llama 3, une voiture compacte, économique et facile à conduire que tout le monde pouvait essayer. Elle n’était pas la plus puissante, mais elle était accessible et pratique pour la majorité des conducteurs.
Cette année, Meta revient avec la Llama 4, mais surprise! Ce n’est plus une voiture compacte, mais plutôt un immense autobus à deux étages. Le vendeur vous explique fièrement: “C’est un autobus révolutionnaire! Il a 400 sièges, mais ne vous inquiétez pas, on n’utilise que 17 sièges à la fois selon la destination.”
Vous demandez: “Est-ce que je peux le garer dans mon entrée?” “Ah non, désolé, il vous faudra un stationnement d’aéroport.”
“Est-ce qu’il va plus vite que la compacte de l’année dernière?” “Pas vraiment, mais il a beaucoup plus de sièges!”
“Mais si je n’utilise que 17 sièges à la fois, pourquoi ai-je besoin d’un autobus entier?” “C’est pour la flexibilité! Aujourd’hui vous transportez des écoliers, demain des touristes, après-demain des joueurs de hockey…”
Vous regardez alors la consommation d’essence et constatez qu’elle est astronomique. Le vendeur vous rassure: “Ne vous inquiétez pas, nous travaillons sur un modèle encore plus gros, le Behemoth, qui aura 2000 sièges! Bien sûr, il faudra construire une nouvelle autoroute juste pour lui…”
Pendant ce temps, dans le stand d’à côté, Mistral présente une voiture compacte qui fait presque tout ce que l’autobus peut faire, mais qui rentre dans un garage standard et consomme beaucoup moins.
Llama 4 représente une avancée stratégique brillante de la part de Meta! L’adoption de l’architecture MoE est visionnaire et positionne l’entreprise pour dominer l’ère de l’IA générative à grande échelle. Ce qui peut sembler comme des performances décevantes aujourd’hui n’est que la première étape d’une stratégie à long terme parfaitement calculée.
Ces modèles fondationnels ne sont que la base sur laquelle Meta va construire. Avec le fine-tuning et l’ajout de capacités de raisonnement dans les prochains mois, nous verrons probablement des performances qui surpasseront tout ce qui existe actuellement. Mark Zuckerberg l’a d’ailleurs suggéré: les capacités de raisonnement arriveront bientôt!
L’architecture MoE est l’avenir de l’IA, permettant une scalabilité inégalée. Bien que ces modèles soient trop grands pour nos ordinateurs personnels actuels, ils préfigurent un futur où le matériel rattrapera ces besoins. D’ici là, des services comme Groq permettent déjà d’accéder à Scout à des vitesses impressionnantes (500 tokens/seconde) pour un prix équivalent à celui de Llama 3.3 70B.
De plus, ces modèles ouvrent la voie à des applications multimodales avancées. Maverick excelle déjà en vision par ordinateur, offrant des capacités non censurées et rapides pour l’analyse d’images. C’est un atout considérable pour les développeurs qui cherchent à créer des applications innovantes combinant texte et image.
Enfin, n’oublions pas que Meta offre gratuitement ces technologies de pointe à la communauté. Cette générosité accélère l’innovation collective et démocratise l’accès à l’IA avancée. Même si les modèles actuels ne peuvent pas tourner sur tous les ordinateurs personnels, ils inspireront certainement des versions distillées plus légères et tout aussi performantes dans un futur proche.
Llama 4 marque un tournant inquiétant dans l’évolution des modèles d’IA open source. Meta abandonne clairement ce qui faisait la force de Llama: l’accessibilité et la possibilité de faire tourner ces modèles localement sur du matériel abordable.
Ces nouveaux modèles MoE sont des monstres de complexité qui exigent des ressources matérielles colossales pour des performances finalement médiocres. Scout, avec ses 109 milliards de paramètres, peine à égaler des modèles trois fois plus petits. Quelle est la logique derrière cette inflation de paramètres si ce n’est une course à l’échalote stérile avec Google et OpenAI?
La verbosité excessive de Scout (57% plus verbeux que les modèles traditionnels) est particulièrement problématique. Non seulement elle ralentit les interactions, mais elle augmente aussi les coûts d’utilisation pour ceux qui paieront ces modèles à l’usage via des API.
L’incapacité de ces modèles à produire du code de qualité est un recul majeur par rapport aux versions précédentes. Meta semble avoir sacrifié des fonctionnalités pratiques sur l’autel de la taille brute des modèles.
Plus inquiétant encore, cette tendance vers des modèles toujours plus grands et gourmands en ressources creuse le fossé numérique. Seules les grandes entreprises et les institutions disposant d’infrastructures coûteuses pourront exploiter pleinement ces technologies. Les développeurs indépendants, les chercheurs avec des moyens limités et les passionnés sont laissés pour compte.
Cette évolution signale peut-être la fin de l’âge d’or des LLM véritablement open source et accessibles. Si même Meta, avec ses ressources considérables, ne peut pas produire des modèles à la fois performants et accessibles, qui le fera? Nous risquons de nous retrouver dans un monde où l’IA avancée sera exclusivement contrôlée par quelques géants technologiques, exactement le scénario que l’open source était censé éviter.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈