Google DeepMinds Demis Hassabis bei Axios' Mike Allen
Perspektive
Dies ist Demis Hassabis in seiner offensten Form - 400 Tage nach dem Nobelpreis, reflektierend darüber, was diese Plattform ermöglicht und wohin sich KI tatsächlich entwickelt. Kein Hype, nur klinische Einschätzung von jemandem, der seit Jahrzehnten auf AGI hinarbeitet.
Die wissenschaftliche Methode als Wettbewerbsvorteil ist der rote Faden durch alles. Hassabis unterscheidet DeepMind nicht durch Ressourcen (obwohl Google diese hat), sondern durch Präzision: “Wir verbinden erstklassige Forschung mit erstklassigem Engineering mit erstklassiger Infrastruktur. Man braucht alle drei, um an der Spitze zu sein.”
Das ist keine leere Positionierung. Auf die Frage nach dem Schwenk zu LLMs 2017-2018 ist er erfrischend ehrlich: Er war agnostisch gegenüber dem Ansatz. Sie hatten Chinchilla, Sparrow, AlphaZero-artige RL-Systeme und neurowissenschaftlich inspirierte Architekturen alle parallel laufen. Als Skalierung Ergebnisse zeigte, verschoben sie pragmatisch Ressourcen. “Wenn du ein echter Wissenschaftler bist, kannst du nicht zu dogmatisch über irgendeine Idee werden, die du hast.”
Der AGI-Zeitplan ist spezifisch: 5-10 Jahre, aber mit einer hohen Messlatte. Seine Definition erfordert “alle kognitiven Fähigkeiten, die wir haben”, einschließlich Erfindung und Kreativität. Aktuelle Modelle sind “gezackte Intelligenzen” - auf PhD-Niveau in einigen Bereichen, fehlerhaft in anderen. Wahre AGI bedeutet durchgehende Konsistenz plus Fähigkeiten, die noch nicht existieren: kontinuierliches Lernen, Online-Lernen, langfristige Planung.
Er schätzt, dass “ein oder zwei weitere Durchbrüche auf Transformer-Niveau” über Skalierung hinaus noch erforderlich sind. Keine inkrementelle Innovation - fundamentale Fortschritte.
Die multimodale Einsicht wird unterschätzt. Hassabis sagt, dass das Erstaunlichste, das zu wenig Aufmerksamkeit erhält, das Video-Verständnis ist. Er testete Gemini mit Fight Club und fragte nach der Bedeutung, dass eine Figur ihren Ring vor einem Kampf abnimmt - und erhielt “einen sehr interessanten philosophischen Punkt” darüber, das alltägliche Leben symbolisch zurückzulassen. Das ist konzeptionelles Verständnis visueller Narrative, nicht Pattern Matching.
Bezüglich katastrophaler Risiken ist er gemessen: P(doom) ist “nicht null”, aber er lehnt präzise Prozentsätze als “Unsinn ab, weil niemand es weiß.” Wozu er sich verpflichtet: Wenn es nicht null ist, “muss man erhebliche Ressourcen und Aufmerksamkeit darauf verwenden.”
Der Kapitalismus-Winkel ist interessant - er argumentiert, dass Unternehmenskunden, die Garantien fordern, natürlich verantwortungsvolle Anbieter belohnen werden. Ein Modell, das aus der Reihe tanzt, verliert Geschäft. Ob diese Anreizstruktur für AGI-Niveau-Systeme gilt, ist eine offene Frage, die er nicht vollständig beantwortet.
Zum China-Rennen: Der Vorsprung ist “Monate, nicht Jahre.” Chinesische Labs haben keine algorithmische Innovation über die Spitze hinaus gezeigt, aber sie sind exzellent im schnellen Nachfolgen. Die Lücke verengt sich.
Wichtigste Erkenntnisse
- AGI: 5-10 Jahre - Erfordert alle menschlichen kognitiven Fähigkeiten einschließlich Erfindung; aktuelle Modelle sind “gezackte Intelligenzen”
- 1-2 Durchbrüche noch nötig - Skalierung allein wird wahrscheinlich nicht reichen; erwartet Fortschritte auf Transformer-Niveau
- Multimodal wird unterschätzt - Video-Verständnis zeigt konzeptionelles Erfassen von Narrativen, nicht nur Mustererkennung
- Wissenschaftliche Methode ist der Vorteil - Pragmatischer Ansatz ermöglichte DeepMind den Schwenk, als Skalierung Ergebnisse zeigte
- P(doom) ist nicht null - Weigert sich zu quantifizieren, aber widmet erhebliche Ressourcen der Sicherheit
- China-Vorsprung: Monate, nicht Jahre - Sie folgen gut nach, haben aber keine algorithmische Innovation an der Spitze gezeigt
- Nobel-Plattform ist wichtig - Öffnet Türen für Advocacy zur verantwortungsvollen KI-Entwicklung
- Agents kommen, aber unzuverlässig - Innerhalb eines Jahres nah dran, vollständige Aufgaben zu delegieren; Vision eines universellen Assistenten
Gesamtbild
Ein Nobelpreisträger schätzt AGI in 5-10 Jahren, sagt aber, dass 1-2 Durchbrüche auf Transformer-Niveau noch erforderlich sind. Aktuelle Modelle sind “gezackte Intelligenzen” - auf PhD-Niveau in einigen Bereichen, fehlerhaft in anderen. Der Weg erfordert Konsistenz über Domänen hinweg plus Fähigkeiten, die noch nicht existieren: kontinuierliches Lernen, Online-Lernen, langfristige Planung.