Newsfeed / Demis Hassabis über World Models, fehlende AGI-Komponenten und warum Genie alles verändert
Google DeepMind·December 16, 2025

Demis Hassabis über World Models, fehlende AGI-Komponenten und warum Genie alles verändert

Der Google DeepMind CEO erklärt, warum World Models für AGI essenziell sind, das Problem der ungleichmäßigen Intelligenz und wie Genie-Agenten, die in simulierten Welten lernen, die Robotik revolutionieren könnten.

Demis Hassabis über World Models, fehlende AGI-Komponenten und warum Genie alles verändert

Perspektive

Dies ist Demis Hassabis auf seinem Heimatgebiet - dem Google DeepMind Podcast mit Hannah Fry - und er spricht darüber, wo KI tatsächlich steht im Vergleich zu dem, was für AGI erforderlich ist. Das Gespräch ist erfrischend technisch und ehrlich über aktuelle Einschränkungen.

Die "jagged intelligence" Perspektive ist entscheidend, um zu verstehen, warum wir noch keine AGI haben. Aktuelle Modelle können Goldmedaillen bei der Internationalen Mathematik-Olympiade gewinnen, während sie bei einfachen Logikrätseln scheitern. Sie können komplexe Philosophie analysieren, haben aber Schwierigkeiten mit konsistentem Schachspiel. Hassabis behandelt dies nicht als kleinen Fehler - es ist eine fundamentale architektonische Lücke. "Man würde von einem AGI-System erwarten, dass es durchgehend konsistent ist."

World Models sind Hassabis' langjährigste Leidenschaft, und dieses Interview erklärt, warum er sie für essenziell hält. Sprachmodelle verstehen mehr über die Welt als Linguisten erwarteten - "Sprache ist reicher als wir dachten" - aber räumliche Dynamiken, intuitive Physik und sensomotorische Erfahrung können nicht in Text erfasst werden. Für Robotik und wirklich universelle Assistenten braucht man Systeme, die Ursache und Wirkung im physischen Raum verstehen.

Die Genie + Simma Schleife ist hier die eigentliche Schlagzeile. Sie setzen KI-Agenten (Simma) in KI-generierte Welten (Genie) ein und lassen sie interagieren. "Die beiden KIs interagieren quasi in den Gedanken des jeweils anderen." Dies schafft potenziell unendliche Trainingsumgebungen, in denen Genie beliebige Szenarien generiert, die Simma zum Lernen braucht. Es ist eine elegante Lösung für das Trainingsdaten-Problem für verkörperte KI.

Zum Thema Halluzinationen macht Hassabis einen subtilen, aber wichtigen Punkt: Das Problem ist nicht, dass Modelle unsicher sind, sondern dass sie nicht wissen, dass sie unsicher sind. AlphaFold gibt Konfidenzwerte aus; LLMs tun das oft nicht. Bessere Modelle "wissen mehr über das, was sie wissen" und können ihre Unsicherheit introspektiv bewerten. Die Lösung erfordert Denkschritte, um Ausgaben zu überprüfen - Systeme, die "stoppen, pausieren und überprüfen, was sie sagen wollten."

Die Skalierungsdebatte erhält eine nuancierte Behandlung. DeepMind ist nicht an eine Wand gestoßen - Gemini 3 zeigt signifikante Verbesserungen - aber die Erträge sind nicht mehr exponentiell. "Es gibt viel Raum zwischen exponentiell und asymptotisch." Seine Formel: 50% Skalierung, 50% Innovation. Beides ist für AGI erforderlich.

Wichtigste Erkenntnisse

  • Jagged Intelligence ist die zentrale AGI-Barriere - Modelle glänzen bei Aufgaben auf PhD-Level, scheitern aber bei High-School-Logik; Konsistenz über Domänen hinweg fehlt
  • World Models sind essenziell für verkörperte KI - Räumliche Dynamiken, intuitive Physik und sensomotorische Erfahrung können nicht allein aus Text gelernt werden
  • Genie + Simma schafft unendliche Trainingsschleifen - KI-Agenten in KI-generierten Welten könnten das Datenproblem für Robotik lösen
  • Halluzinationen entstehen aus Meta-Ignoranz - Modelle wissen nicht, was sie nicht wissen; benötigen Konfidenzwerte wie AlphaFold
  • Skalierung ist nicht tot, nur nicht mehr exponentiell - DeepMind arbeitet mit 50% Skalierung, 50% Innovation; beides nötig für AGI
  • Fusion ist ein Grundlagen-Problem - Partnerschaft mit Commonwealth Fusion zur Beschleunigung sauberer Energie durch KI-unterstützte Plasma-Eindämmung
  • Online-Lernen fehlt noch - Aktuelle Modelle lernen nach der Bereitstellung nicht weiter; dies ist eine kritische Lücke
  • Physik-Benchmarks für World Models notwendig - Generierte Videos sehen realistisch aus, sind aber nicht physikalisch genau genug für Robotik

Gesamtbild

Aktuelle KI ist "jagged" - brillant bei engen Aufgaben, unzuverlässig über Domänen hinweg. Der Weg zu AGI erfordert wahrscheinlich World Models, die Physik und Kausalität verstehen, nicht nur Sprachmuster. DeepMinds Wette: Agenten in KI-generierten Welten trainieren, bis sie Intuition darüber entwickeln, wie die Realität funktioniert.

Related