2026年AI现状:没有赢家通吃
Sebastian Raschka和Nathan Lambert做客Lex Fridman播客,深入剖析AI格局——从扩展定律和中国开源权重模型到编程智能体和通向AGI之路。
为什么2026年没有一家公司能主导AI
Lex Fridman第490期节目汇聚了机器学习社区最受尊敬的两位声音:Sebastian Raschka,Build a Large Language Model from Scratch和Build a Reasoning Model from Scratch的作者;以及Nathan Lambert,Allen Institute for AI (AI2)的后训练负责人和RLHF权威著作的作者。这期录制于2026年1月的节目,是一场长达三小时的技术深度之旅,揭示了AI在炒作周期背后的真实状态。
关于中美AI竞赛: "I don't think nowadays in 2026 that there will be any company who has access to a technology that no other company has access to. Researchers are frequently changing jobs, changing labs, they rotate."(我不认为在2026年的今天,会有任何一家公司能独占其他公司无法获取的技术。研究人员频繁换工作、换实验室,他们在不断流动。)Sebastian Raschka认为真正的差异化因素不是想法,而是预算和硬件。Nathan Lambert补充说,智谱AI、MiniMax和Kimi Moonshot等中国公司在某些领域已经超越了DeepSeek,使用的正是DeepSeek自己发布的技术。中国的开源权重运动是争取全球影响力的战略举措,而非慈善行为。
关于Opus 4.5时刻: "The hype over Anthropic's Claude Opus 4.5 model has been absolutely insane... culturally Anthropic is known for betting very hard on code, which is the Claude Code thing that's working out for them right now."(围绕Anthropic的Claude Opus 4.5模型的热度简直疯狂......从文化上来说,Anthropic以在代码领域重注著称,这就是Claude Code目前为他们带来回报的原因。)Nathan认为Anthropic对代码的专注是一种文化优势,并指出该公司是主要实验室中"最不混乱的"。与此同时,Google的Gemini 3在技术上令人印象深刻,但在叙事上落败了——这是一个反复出现的主题:社区的自发热情比营销更重要。
关于扩展定律和预训练: Nathan反驳了"预训练已死"的说法。"I still think most of the compute is going in at pre-training because you can still make a model better... in a few years that'll saturate and the RL compute will just go longer."(我仍然认为大部分算力投入在预训练阶段,因为你仍然可以让模型变得更好......几年后这将饱和,届时强化学习的算力投入会持续更长时间。)讨论揭示了一个微妙的观点:预训练的改进并未停滞,但强化学习将是下一波能力飞跃的来源。他们预计2026年将出现2,000美元的订阅服务,因为模型将提供更前沿的能力。
关于AI研究人员实际如何使用AI: 对话对个人AI使用情况的讨论坦诚而接地气。Sebastian使用ChatGPT的快速模式进行快速查询,使用Pro模式进行深度文档审查。Nathan专门使用思维模型,同时运行五个Pro查询进行论文搜索。在编程方面,两人都使用Claude——Sebastian通过VS Code中的Codex插件,Lex通过Claude Code来"用英语编程"。Nathan使用Gemini进行快速解释,使用Grok查找AI相关的Twitter帖子。每个人都使用多个模型。
关于智能体和界面问题: "The problem is for arbitrary tasks, you still have to specify what you want your LLM to do. What is the environment? How do you specify? You can say what the end goal is, but even getting it to that point — how do you as a user guide the model?"(问题在于对于任意任务,你仍然需要指定你希望LLM做什么。环境是什么?如何指定?你可以说出最终目标是什么,但即使要达到那个阶段——作为用户你如何引导模型?)Sebastian提出了自主智能体面临的根本挑战:规范化是困难的。当前的智能体范式在代码领域有效,因为环境是明确定义的,但通用智能体面临一个可能需要数年才能解决的界面问题。
关于开源权重模型和政策: Nathan描述了他在AI2领导TULU后训练工作的情况,这是美国为数不多的完全开放的训练流程之一。他指出了一个关键差距:虽然中国实验室正在用开放模型涌入市场,但美国的开源权重努力正面临整合。2025年白宫AI行动计划对开源的拥抱令人鼓舞,但将政策转化为持续的资金支持仍然是挑战。
2026年AI现状的7个关键要点
- 不会出现赢家通吃的局面 —— 想法在实验室之间自由流动;差异化因素是算力预算和硬件,而非专有技术
- 中国的开源权重策略正在奏效 —— DeepSeek开启了这场运动,但智谱AI、MiniMax和Kimi Moonshot现在正发布同样有竞争力的模型,这是争取全球影响力的蓄意策略
- 预训练并未消亡 —— 大部分算力仍然投入预训练,但强化学习后训练才是下一个重大能力飞跃的来源
- 多模型使用已成常态 —— 即使是顶级研究人员也在不同任务中使用3-4个不同的模型,这表明没有单一模型在所有场景中占据主导地位
- 代码是智能体的杀手级应用 —— Anthropic在Claude Code上的押注正在获得回报,因为编程提供了明确定义的环境;通用智能体仍面临根本性的规范化挑战
- 2,000美元的AI订阅即将到来 —— 从200美元到2,000美元层级的跨越将在2026年发生,由为专业使用提供显著更强能力的模型推动
- 开源AI需要可持续的资金支持 —— 美国对开放AI有强有力的政策支持,但缺乏使中国开源权重发布成为可能的政府支持激励结构
这对使用AI构建的组织意味着什么
从这次对话中浮现的图景是模型层面的快速商品化。如果没有公司能维持技术护城河,价值就转移到你如何使用AI——应用、工作流和集成。组织不应该押注于单一模型提供商。构建这些系统的研究人员本身每天都在使用多个模型,根据任务和质量进行切换。这种多模型未来不是一个暂时阶段,而是新常态。真正的竞争优势在于构建智能体驱动的工作流,利用最适合每个具体任务的模型。


