Demis Hassabis o světových modelech, chybějících částech AGI a proč Genie změní všechno
Generální ředitel Google DeepMind diskutuje, proč jsou světové modely nezbytné pro AGI, problém nepravidelné inteligence a jak by agenti Genie učící se v simulovaných světech mohli odemknout robotiku.
Perspektiva
Toto je Demis Hassabis na svém domácím území - v podcastu Google DeepMind s Hannah Fry - mluvící o tom, kde se AI nachází versus kde musí být pro AGI. Rozhovor je příjemně technický a upřímný o současných omezeních.
Rámec "nepravidelné inteligence" je klíčový pro pochopení, proč dosud nemáme AGI. Současné modely mohou vyhrát zlaté medaile na Mezinárodní matematické olympiádě, zatímco selžou v základních logických hádankách. Mohou analyzovat komplexní filozofii, ale bojují s konzistentní hrou v šachách. Hassabis to nepovažuje za malou chybu - jde o zásadní architektonickou mezeru. "Očekávali byste, že by systém AGI byl konzistentní na všech frontách."
Světové modely jsou Hassabisova dlouhodobá vášeň, a tento rozhovor vysvětluje, proč si myslí, že jsou nezbytné. Jazykové modely rozumí světu více, než jazykovědy čekaly - "jazyk je bohatší, než jsme mysleli" - ale prostorová dynamika, intuitivní fyzika a senzoricko-motorická zkušenost nemohou být zachyceny v textu. Pro robotiku a skutečně univerzální asistenty potřebujete systémy, které rozumí příčině a následku ve fyzickém prostoru.
Smyčka Genie + Simma je skutečná novinka. Pustili AI agenty (Simma) do AI-generovaných světů (Genie) a nechali je interagovat. "Ty dva AI si vzájemně interagují v myšlenkách jeden druhého." To vytváří potenciálně nekonečná tréninková prostředí, kde Genie generuje ať jakékoli scénáře, které Simma potřebuje se naučit. Je to elegantní řešení problému tréninků pro воплощенnou AI.
Na téma halucinací Hassabis dělá jemný, ale důležitý bod: problém není, že modely jsou nejisté, ale že nevědí, že jsou nejisté. AlphaFold vypočítává skóry spolehlivosti; LLM to často nedělají. Lepší modely "více vědí o tom, co vědí" a mohou introspekovat své nejistoty. Oprava vyžaduje používání myšlenkových kroků k dvojité kontrole výstupů - systémy, které "zastaví, pozastaví se a zvážou, co se chystaly říci."
Debata o škálování dostane jemné zpracování. DeepMind nenarazil na stěnu - Gemini 3 vykazuje významná zlepšení - ale výnosy již nejsou exponenciální. "Mezi exponenciální a asymptotickou je spousta místa." Jeho vzorec: 50% škálování, 50% inovace. Obojí je pro AGI nutné.
Klíčové poznatky
- Nepravidelná inteligence je jádro bariéry AGI - Modely vynikají v úkolech na úrovni doktorátu, zatímco selhávají v logice střední školy; chybí konzistence v různých doménách
- Světové modely jsou nezbytné pro воплощenou AI - Prostorová dynamika, intuitivní fyzika a senzoricko-motorická zkušenost nemohou být naučeny pouze z textu
- Genie + Simma vytváří nekonečné tréninkovací smyčky - AI agenti v AI-generovaných světech by mohli vyřešit datový problém robotiky
- Halucinace vyplývají z meta-ignorance - Modely nevědí, co nevědí; potřebují skóry spolehlivosti jako AlphaFold
- Škálování není mrtvé, jen již není exponenciální - DeepMind pracuje na bázi 50% škálování, 50% inovace; obojí je potřebné pro AGI
- Fúze je kořenový problém - Partnerství s Commonwealth Fusion k urychlení čisté energie prostřednictvím AI-asistované retence plazmatu
- Online učení stále chybí - Současné modely se neučí dále po nasazení; toto je kritická mezera
- Fyzikální benchmarky jsou potřebné pro světové modely - Generovaná videa vypadají realisticky, ale nejsou dostatečně fyzikálně přesná pro robotiku
Větší obraz
Současná AI je "nepravidelná" - brilantní v úzkých úkolech, nespolehlivá v různých doménách. Cesta k AGI pravděpodobně vyžaduje světové modely, které rozumí fyzice a kauzalitě, ne jen jazykovým vzorům. Sázka DeepMind: trénujte agenty v AI-generovaných světech, dokud si nevyvinou intuici o tom, jak funguje realita.


