Demis Hassabis 论世界模型、AGI 的缺失部分以及为什么 Genie 改变一切
Google DeepMind CEO 讨论世界模型为何对 AGI 至关重要、参差不齐的智能问题,以及 Genie 智能体在模拟世界中学习如何可能解锁机器人技术。
观点
这是 Demis Hassabis 在自己的地盘上——Google DeepMind 与 Hannah Fry 联合主办的播客上——讨论 AI 目前的位置与 AGI 所需位置之间的差异。这场对话在技术细节上令人耳目一新,对当前限制也表现得诚实坦率。
"参差不齐的智能"这个框架是理解为什么我们还没有 AGI 的关键。当前的模型可以在国际数学奥林匹克竞赛中获得金牌,同时在基本逻辑谜题上失败。它们可以分析复杂的哲学问题,但在持续的国际象棋游戏中步履蹒跚。Hassabis 没有把这视为一个小错误——这是一个基本的架构差距。"您会期望一个 AGI 系统在各个领域都保持一致。"
世界模型是 Hassabis 最持久的热情,这次采访解释了为什么他认为它们至关重要。语言模型对世界的理解超过了语言学家的预期——"语言比我们想象的更丰富"——但空间动态、直觉物理学和感觉运动经验无法用文本捕捉。对于机器人和真正的通用助手,您需要理解物理空间中因果关系的系统。
Genie + Simma 循环是真正的头条新闻。 他们将 AI 智能体 (Simma) 放入 AI 生成的世界 (Genie) 中,让它们相互交互。"这两个 AI 在彼此的思维中进行交互。" 这创建了潜在的无限训练环境,其中 Genie 生成 Simma 需要学习的任何场景。这是对实体化 AI 训练数据问题的一个优雅解决方案。
关于幻觉,Hassabis 提出了一个微妙但重要的观点:问题不在于模型不确定,而在于它们不知道自己是否不确定。AlphaFold 输出置信度分数;LLM 通常不会。更好的模型"更多地了解自己知道的东西",并可以反思其不确定性。该修复需要使用思考步骤来双重检查输出——"停下来,暂停,并重新审视它们即将说出的内容"的系统。
规模辩论得到了细致的处理。 DeepMind 还没有撞到墙——Gemini 3 显示出显著的改进——但收益不再是指数级的。"指数和渐近之间有很大的空间。" 他的公式:50% 的规模化、50% 的创新。两者都是 AGI 必需的。
关键要点
- 参差不齐的智能是核心 AGI 障碍 - 模型在博士级任务中表现卓越,同时在高中逻辑上失败;缺少跨域一致性
- 世界模型对实体化 AI 至关重要 - 空间动态、直觉物理学和感觉运动经验无法仅从文本中学习
- Genie + Simma 创建无限训练循环 - AI 生成的世界中的 AI 智能体可能解决机器人的数据问题
- 幻觉源于元无知 - 模型不知道自己不知道什么;需要像 AlphaFold 一样的置信度分数
- 规模化并未消亡,只是不再指数级 - DeepMind 运营基于 50% 的规模化、50% 的创新;两者都是 AGI 所需
- 融合是一个根本节点问题 - 与 Commonwealth Fusion 的合作,通过 AI 辅助等离子体约束来加速清洁能源
- 在线学习仍然缺失 - 当前模型在部署后不继续学习;这是一个关键差距
- 世界模型需要物理基准 - 生成的视频看起来逼真,但在物理准确性上不足以用于机器人
大局观
当前的 AI 是"参差不齐的"——在狭隘的任务上才华横溢,在跨域上不可靠。通往 AGI 的路径可能需要理解物理学和因果关系的世界模型,而不仅仅是语言模式。DeepMind 的赌注:在 AI 生成的世界中训练智能体,直到它们对现实如何运作产生直觉。


