Yann LeCun

Yann LeCun

Scientifique en chef IA at Meta

Lauréat du prix Turing. Scientifique en chef IA de Meta. Pionnier des réseaux de neurones convolutifs. Parie maintenant sur les modèles du monde plutôt que les LLM.

researchmetapioneerworld-models

À propos de Yann LeCun

Yann LeCun est le scientifique en chef IA chez Meta et lauréat du prix Turing (2018, avec Geoffrey Hinton et Yoshua Bengio). Il a été pionnier des réseaux de neurones convolutifs dans les années 1980-90 et est maintenant l’un des sceptiques les plus vocaux de l’IA sur les approches LLM-only vers l’AGI.

Faits marquants de sa carrière

  • Meta (2013-présent) : Scientifique en chef IA, VP de la recherche IA
  • AMI (2025) : Co-fondateur de la startup Advanced Machine Intelligence
  • Prix Turing (2018) : Avec Hinton et Bengio pour l’apprentissage profond
  • NYU (2003-présent) : Professeur Silver en informatique
  • Bell Labs (1988-2002) : A inventé les réseaux de neurones convolutifs

Positions notables

Sur l’insuffisance des LLM

La thèse contrariante de LeCun :

“You cannot get to human-level AI through text alone. Training an LLM requires 30 trillion tokens - effectively all internet text. That same 10^14 bytes represents just 15,000 hours of video - 30 minutes of YouTube uploads.”

“Vous ne pouvez pas atteindre l’IA de niveau humain par le texte seul. Entraîner un LLM nécessite 30 trillions de tokens - effectivement tout le texte internet. Ces mêmes 10^14 octets représentent juste 15 000 heures de vidéo - 30 minutes de téléchargements YouTube.”

Sur les modèles du monde (JEPA)

Son approche alternative :

“JEPA predicts in abstract representation space, not pixel space - eliminates unpredictable details while preserving structure for planning.”

“JEPA prédit dans l’espace de représentation abstraite, pas l’espace pixel - élimine les détails imprévisibles tout en préservant la structure pour la planification.”

Sur la recherche ouverte

“You cannot call it research unless you publish - internal hype creates delusion. Scientists need external validation.”

“Vous ne pouvez pas appeler ça de la recherche à moins de publier - le hype interne crée de l’illusion. Les scientifiques ont besoin de validation externe.”

Citations clés

  • “Les LLM ne peuvent pas nous amener à l’IA de niveau humain.”
  • “Modèles du monde entraînés sur la vidéo, pas le texte.”
  • “Vous ne pouvez pas appeler ça de la recherche à moins de publier.”

Lectures associées

Video Mentions

Video thumbnail

Efficacité des données vision vs texte

Vous ne pouvez pas atteindre l'IA de niveau humain par le texte seul. Entraîner un LLM nécessite 30 trillions de tokens - tout le texte internet. Ces mêmes données sont juste 15 000 heures de vidéo - 30 minutes de téléchargements YouTube.

Video thumbnail

Philosophie de recherche ouverte

AMI publiera ouvertement car vous ne pouvez pas appeler ça de la recherche à moins de publier - le hype interne crée de l'illusion.

Video thumbnail

Joint Embedding Predictive Architecture

JEPA prédit dans l'espace de représentation abstraite, pas l'espace pixel - élimine les détails imprévisibles tout en préservant la structure.