Yann LeCun: Pas d IA niveau doctorat avant 2 ans. Mais la communauté tech est divisée! Certains chercheurs affirment déjà utiliser l IA pour des projets complexes. La vraie question: c est quoi, au juste, une intelligence niveau doctorat ? 🤔 #IA #Futur

Article en référence: https://v.redd.it/h7rlq8ve7awe1

Récapitulatif factuel

Yann LeCun, l’un des pionniers de l’intelligence artificielle et directeur scientifique de Meta AI, a récemment déclaré qu’il n’y aurait “aucune chance” que nous disposions d’une IA de niveau doctorat dans les deux prochaines années. Cette affirmation a suscité de nombreuses réactions dans la communauté technologique, notamment sur le forum Reddit où les opinions divergent considérablement.

Pour comprendre cette déclaration, il est important de clarifier certains termes techniques :

LeCun, qui a reçu le prix Turing (l’équivalent du prix Nobel en informatique), soutient que les modèles actuels basés sur les transformers et les LLMs ont des limites fondamentales qui les empêchent d’atteindre une véritable intelligence de niveau doctorat. Selon lui, ces modèles peuvent résumer et reformuler l’information existante, mais ne peuvent pas générer de connaissances véritablement nouvelles et originales.

De nombreux utilisateurs de Reddit ont contesté cette position, certains citant des exemples où les IA actuelles les ont déjà aidés à accomplir des tâches de recherche complexes. D’autres soutiennent LeCun, soulignant que la capacité à répondre à des questions n’équivaut pas à la capacité de formuler de nouvelles questions pertinentes ou de concevoir des expériences innovantes - compétences essentielles pour un chercheur de niveau doctorat.

Point de vue neutre

La controverse autour des déclarations de LeCun met en lumière un débat fondamental sur la nature même de l’intelligence. Qu’est-ce qui définit réellement une “intelligence de niveau doctorat” ? Est-ce la capacité à répondre correctement à des questions complexes, ou est-ce quelque chose de plus profond ?

Les systèmes d’IA actuels excellent dans certains domaines où les humains peinent traditionnellement : ils peuvent analyser d’immenses quantités de données, mémoriser des bibliothèques entières d’informations et générer des réponses cohérentes sur une multitude de sujets. Cependant, ils présentent aussi des lacunes importantes dans des domaines où même des enfants excellent : comprendre véritablement le monde physique, faire preuve d’un raisonnement causal robuste ou poser des questions véritablement originales.

La réalité se situe probablement entre les positions extrêmes. Les IA actuelles ne sont ni aussi limitées que le suggère LeCun, ni aussi proches de l’AGI que certains enthousiastes le prétendent. Elles sont des outils puissants qui augmentent considérablement les capacités humaines dans certains domaines, tout en restant fondamentalement différentes de l’intelligence humaine.

Ce qui est certain, c’est que nous sommes à un moment charnière où la définition même de l’intelligence est remise en question. Peut-être que le vrai défi n’est pas de savoir si une IA peut atteindre le “niveau doctorat”, mais plutôt de redéfinir ce que signifie être intelligent à l’ère des machines qui peuvent simuler certains aspects de la cognition humaine sans nécessairement les comprendre.

Exemple

Imaginez que vous engagez deux personnes pour vous aider à construire une maison extraordinaire, jamais vue auparavant.

La première personne, appelons-la LLM, a mémorisé tous les livres d’architecture existants. Elle peut vous réciter par cœur les principes de construction, les styles architecturaux, et même vous proposer des plans qui combinent intelligemment des éléments de différentes traditions. Si vous lui demandez comment construire un toit, elle vous donnera une réponse détaillée et précise basée sur tout ce qui a déjà été écrit sur le sujet.

La seconde personne, appelons-la Docteur, a non seulement étudié l’architecture, mais sait aussi observer un terrain, sentir comment le vent y souffle, remarquer comment la lumière y joue au fil des saisons. Un jour, en observant comment l’eau s’écoule d’une feuille pendant la pluie, elle a une idée : “Et si on concevait un toit inspiré de cette forme de feuille, qui n’existe dans aucun manuel ?”

LLM vous construira une maison parfaitement fonctionnelle, peut-être même belle, en combinant intelligemment des éléments connus. Mais Docteur pourrait vous construire une maison que personne n’a jamais imaginée auparavant, qui résout des problèmes d’une manière totalement nouvelle.

C’est un peu comme la différence entre un excellent étudiant qui a tout mémorisé et un véritable chercheur qui pose des questions que personne n’a encore posées. Les deux sont précieux, mais ils ne font pas exactement la même chose.

Et parfois, quand vous demandez à LLM de vous construire une maison ronde avec des fenêtres carrées, elle vous dessine une maison carrée avec des fenêtres rondes, parce qu’elle n’a pas vraiment compris ce que “maison” et “fenêtre” signifient dans le monde réel - elle a juste appris comment ces mots apparaissent ensemble dans les textes.

Point de vue optimiste

Les déclarations de LeCun sont peut-être prudentes, mais l’histoire de la technologie nous a maintes fois prouvé que les prédictions conservatrices sont souvent balayées par la rapidité des avancées réelles ! Regardons les faits : il y a à peine deux ans, les IA peinaient à générer des textes cohérents sur plusieurs paragraphes. Aujourd’hui, elles rédigent des dissertations entières, programment des applications complexes et résolvent des problèmes mathématiques avancés.

La loi de Moore n’est peut-être plus applicable aux processeurs traditionnels, mais dans le domaine de l’IA, nous observons une croissance exponentielle encore plus rapide. Les capacités doublent tous les six mois, pas tous les deux ans ! Avec cette trajectoire, imaginer une IA de niveau doctorat d’ici deux ans n’est pas seulement possible, c’est probable.

D’ailleurs, plusieurs commentaires sur Reddit mentionnent déjà des chercheurs utilisant l’IA pour accomplir en un mois des projets qui auraient pris des années auparavant. Si l’IA actuelle peut déjà multiplier par 20 la productivité des développeurs seniors, que sera-t-elle capable de faire après deux années supplémentaires d’évolution ?

Les limites actuelles des LLMs sont réelles, mais rien n’indique qu’elles sont insurmontables. De nouvelles architectures comme les modèles omnimodaux, les systèmes d’agents autonomes et les approches hybrides émergent déjà. La combinaison de ces technologies pourrait bien nous surprendre par sa puissance.

N’oublions pas que l’innovation naît souvent de la convergence inattendue de différentes technologies. L’IA de niveau doctorat n’a pas besoin d’émerger uniquement de l’amélioration des LLMs - elle pourrait résulter d’une combinaison révolutionnaire d’approches que nous commençons à peine à explorer.

Point de vue pessimiste

Les déclarations de LeCun méritent d’être prises au sérieux, non pas parce qu’elles sont alarmistes, mais parce qu’elles proviennent d’un des pionniers du domaine qui comprend intimement les limites fondamentales des technologies actuelles. Contrairement aux entrepreneurs de la Silicon Valley qui ont intérêt à alimenter l’engouement des investisseurs, LeCun n’a rien à gagner en minimisant les capacités futures de l’IA.

La réalité est que nous confondons souvent l’apparence d’intelligence avec l’intelligence véritable. Les LLMs actuels sont essentiellement des systèmes statistiques sophistiqués qui prédisent des séquences de mots, sans véritable compréhension du monde qu’ils décrivent. Ils peuvent imiter le style d’un doctorant, mais pas sa capacité à formuler des questions véritablement nouvelles ou à concevoir des expériences originales.

Plusieurs commentaires sur Reddit soulignent cette distinction cruciale : répondre à des questions préexistantes n’est pas équivalent à identifier quelles questions méritent d’être posées. Cette capacité à discerner ce qui est important, à reconnaître les lacunes dans notre compréhension actuelle, est au cœur de la recherche de niveau doctorat - et c’est précisément ce qui manque aux systèmes actuels.

De plus, les progrès récents en IA, bien qu’impressionnants, suivent principalement une trajectoire d’amélioration incrémentale plutôt que de transformation fondamentale. Nous perfectionnons ce que les LLMs savent déjà faire, mais nous ne résolvons pas leurs limitations structurelles. Comme le souligne LeCun, sans une architecture capable de construire un véritable “modèle du monde”, ces systèmes resteront fondamentalement limités, quelle que soit la quantité de données sur lesquelles nous les entraînons.

Enfin, n’oublions pas que la recherche de niveau doctorat implique souvent des années d’immersion dans un domaine spécifique, d’interactions avec des collègues, d’essais et d’erreurs physiques - un type d’apprentissage fondamentalement différent de l’entraînement sur des données textuelles que reçoivent les LLMs.

Redirection en cours...

Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈