Yann LeCun

Yann LeCun

Chief AI Scientist at Meta

Turing Award Gewinner. Meta Chief AI Scientist. Pionier der Convolutional Neural Networks. Setzt jetzt auf Weltmodelle statt LLMs.

researchmetapioneerworld-models

Über Yann LeCun

Yann LeCun ist Chief AI Scientist bei Meta und Turing Award Gewinner (2018, mit Geoffrey Hinton und Yoshua Bengio). Er entwickelte in den 1980er-90er Jahren Pionierarbeit bei Convolutional Neural Networks und ist jetzt einer der lautstärksten Skeptiker von KI, dass nur LLM-Ansätze zu AGI führen.

Karriere-Höhepunkte

  • Meta (2013-heute): Chief AI Scientist, VP of AI Research
  • AMI (2025): Mitgründer des Advanced Machine Intelligence Startups
  • Turing Award (2018): Mit Hinton und Bengio für Deep Learning
  • NYU (2003-heute): Silver Professor of Computer Science
  • Bell Labs (1988-2002): Erfand Convolutional Neural Networks

Bemerkenswerte Positionen

Über LLMs sind unzureichend

LeCuns konträre These:

“You cannot get to human-level AI through text alone. Training an LLM requires 30 trillion tokens - effectively all internet text. That same 10^14 bytes represents just 15,000 hours of video - 30 minutes of YouTube uploads.”

Deutsche Übersetzung: “Man kann keine menschliche KI nur durch Text erreichen. Ein LLM zu trainieren erfordert 30 Billionen Tokens - effektiv den gesamten Internettext. Diese gleichen 10^14 Bytes repräsentieren nur 15.000 Stunden Video - 30 Minuten YouTube-Uploads.”

Über Weltmodelle (JEPA)

Sein alternativer Ansatz:

“JEPA predicts in abstract representation space, not pixel space - eliminates unpredictable details while preserving structure for planning.”

Deutsche Übersetzung: “JEPA sagt im abstrakten Darstellungsraum voraus, nicht im Pixelraum - eliminiert unvorhersehbare Details bei Erhalt der Struktur für Planung.”

Über offene Forschung

“You cannot call it research unless you publish - internal hype creates delusion. Scientists need external validation.”

Deutsche Übersetzung: “Man kann es nicht Forschung nennen, wenn man nicht publiziert - interner Hype erzeugt Wahn. Wissenschaftler brauchen externe Validierung.”

Wichtige Zitate

  • “LLMs können uns nicht zu menschlicher KI bringen.”
  • “Weltmodelle trainiert auf Video, nicht Text.”
  • “Man kann es nicht Forschung nennen, wenn man nicht publiziert.”

Weiterführende Literatur

  • World Models - LeCuns Weg zu AGI
  • JEPA - Joint Embedding Predictive Architecture

Video Mentions

Video thumbnail

Dateneffizienz Vision vs. Text

Man kann keine menschliche KI nur durch Text erreichen. Ein LLM zu trainieren erfordert 30 Billionen Tokens - den gesamten Internettext. Diese gleichen Daten sind nur 15.000 Stunden Video - 30 Minuten YouTube-Uploads.

Video thumbnail

Offene Forschungsphilosophie

AMI wird offen publizieren, weil man es nicht Forschung nennen kann, wenn man nicht publiziert - interner Hype erzeugt Wahn.

Video thumbnail

Joint Embedding Predictive Architecture

JEPA sagt im abstrakten Darstellungsraum voraus, nicht im Pixelraum - eliminiert unvorhersehbare Details bei Erhalt der Struktur.