Google DeepMind首席科学家Demis Hassabis与Axios Mike Allen对话

Axios
deepmindinterviewai-safetyagentsagi

观点

这是Demis Hassabis最坦诚的时刻——获得诺贝尔奖后的400天,反思这个平台能够实现什么以及AI未来的真实方向。没有炒作,只是来自数十年致力于AGI研究的人冷静的评估。

科学方法作为竞争优势贯穿始终。Hassabis将DeepMind的区别不在于资源(尽管谷歌拥有这些)而在于严谨性:“我们融合了世界级的研究、世界级的工程和世界级的基础设施。要在前沿领域发展,这三个方面都需要达到最高水平。”

这不是空洞的定位。当被问及2017-2018年向LLM的转向时,他非常坦诚:他对方法不持偏见。他们同时运行Chinchilla、Sparrow、AlphaZero风格的RL系统和受神经科学启发的架构。当扩展显示出成效时,他们务实地转移资源。“如果你是真正的科学家,你不能过分执着于某个自己的想法。”

AGI的时间表很明确:5-10年,但标准很高。他的定义需要”我们拥有的所有认知能力”,包括发明和创意。目前的模型是”参差不齐的智能”——在某些领域达到博士水平,在其他领域存在缺陷。真正的AGI意味着各个领域的一致性,加上尚不存在的能力:持续学习、在线学习、长期规划。

他估计除了扩展外,“还需要一两个更多的transformer级别的突破”。不是增量创新——而是基础性突破。

多模态的洞察被低估了。 Hassabis表示,得到关注最少的最令人惊讶的事情是视频理解。他用《搏击俱乐部》测试Gemini,询问角色在打拳前摘下戒指的意义——得到了”一个非常有趣的哲学观点”,关于象征性地摆脱日常生活。这是对视觉叙述的概念理解,而不仅仅是模式匹配。

关于灾难性风险,他的态度是理性的:灾难风险概率(P(doom))是”非零的”,但他认为精确百分比是”荒谬的,因为没人知道”。他确实承诺的是:如果它是非零的,“你必须投入大量资源和关注于此”。

资本主义角度很有趣——他辩称,要求保证的企业客户会自然地奖励负责任的提供商。失控的模型会失去业务。这种激励结构是否会对AGI级系统成立是一个他没有完全解决的开放问题。

关于中国竞赛:领先是”数月,而非数年”。中国实验室没有展示超越前沿的算法创新,但他们在快速跟进方面表现出色。差距在缩小。

关键要点

  • AGI: 5-10年 ——需要包括发明在内的所有人类认知能力;目前的模型是”参差不齐的智能”
  • 仍需1-2个突破 ——仅靠扩展可能无法实现;预期会有transformer级别的进步
  • 多模态被低估了 ——视频理解展现了对叙述的概念把握,而不仅是模式识别
  • 科学方法是优势 ——务实的方法让DeepMind在扩展显示效果时灵活转向
  • 灾难风险非零 ——拒绝量化但承诺为安全投入重要资源
  • 中国领先差距:数月而非数年 ——他们快速跟进能力强但未展示前沿算法创新
  • 诺贝尔平台很重要 ——为负责任AI发展的倡导打开大门
  • 智能体即将到来但不可靠 ——一年内,接近委托完整任务;通用助手愿景

大局观

一位诺贝尔奖得主估计AGI将在5-10年内出现,但表示仍需1-2个transformer级别的突破。目前的模型是”参差不齐的智能”——在某些领域达到博士水平,在其他领域存在缺陷。这条路径需要跨域的一致性,加上尚不存在的能力:持续学习、在线学习、长期规划。