2026年のAIの現状:一人勝ちはない
Sebastian RaschkaとNathan LambertがLex Fridmanの番組に出演し、AIの現状を徹底分析 -- スケーリング則、中国のオープンウェイトモデル、コーディングエージェント、AGIへの道のりまで。
なぜ2026年にAIを独占する企業は現れないのか
Lex Fridmanの490回目のエピソードでは、ML コミュニティで最も尊敬される二人の声が集結する。Build a Large Language Model from ScratchとBuild a Reasoning Model from Scratchの著者であるSebastian Raschkaと、Allen Institute for AI(AI2)のポストトレーニングリーダーでありRLHFの決定版書籍の著者であるNathan Lambertだ。2026年1月に収録されたこのエピソードは、誇大広告の裏にあるAIの実態を探る3時間にわたる技術的な旅である。
米中間のAI競争について: "I don't think nowadays in 2026 that there will be any company who has access to a technology that no other company has access to. Researchers are frequently changing jobs, changing labs, they rotate."(2026年の現在、他の企業がアクセスできない技術を持つ企業はないと思います。研究者は頻繁に転職し、ラボを変え、ローテーションしています。) Sebastian Raschkaは、真の差別化要因はアイデアではなく、予算とハードウェアだと主張する。Nathan Lambertは、Zhipu AI、MiniMax、Kimi Moonshootなどの中国企業がDeepSeek自身の公開された技術を使い、一部の分野でDeepSeekを超えていると付け加える。中国からのオープンウェイト運動は、慈善事業ではなく、グローバルな影響力を狙った戦略的な動きである。
Opus 4.5の衝撃について: "The hype over Anthropic's Claude Opus 4.5 model has been absolutely insane... culturally Anthropic is known for betting very hard on code, which is the Claude Code thing that's working out for them right now."(AnthropicのClaude Opus 4.5モデルへの熱狂は完全に異常です...文化的にAnthropicはコードに全力で賭けることで知られており、それが今Claude Codeとして成果を出しています。) Nathanは、Anthropicのコードへの注力を文化的な強みと見ており、同社が主要ラボの中で「最も混乱が少ない」存在だと指摘する。一方、GoogleのGemini 3は技術的には印象的だったが、ナラティブで負けた -- コミュニティの自然発生的な熱狂がマーケティングよりも重要だという繰り返し現れるテーマだ。
スケーリング則と事前学習について: Nathanは「事前学習は終わった」という論調に反論する。 "I still think most of the compute is going in at pre-training because you can still make a model better... in a few years that'll saturate and the RL compute will just go longer."(計算資源の大部分はまだ事前学習に投入されていると思います。なぜならモデルをまだ改善できるからです...数年後にはそれが飽和し、RLの計算時間がさらに長くなるでしょう。) この議論から見えてくるのは微妙な見方だ:事前学習の改善はまだ頭打ちになっておらず、強化学習が次の能力向上の波をもたらす場所である。2026年中に、最先端の能力を提供するモデルに対して2,000ドルのサブスクリプションが登場すると予想している。
AI研究者が実際にどうAIを使っているか: 会話は個人的なAI使用について率直な内容になる。Sebastianは素早い検索にはChatGPTの高速モードを、詳細なドキュメントレビューにはProモードを使用している。NathanはThinkingモデルを専用で使い、論文検索のために5つのProクエリを同時に実行する。コーディングには両者ともClaudeを使用 -- SebastianはVS CodeのCodexプラグイン経由で、LexはClaude Codeで「英語でプログラミング」する。NathanはGeminiを素早い説明に、GrokをAI関連のTwitter投稿検索に使用する。全員が複数のモデルを使い分けている。
エージェントとインターフェース問題について: "The problem is for arbitrary tasks, you still have to specify what you want your LLM to do. What is the environment? How do you specify? You can say what the end goal is, but even getting it to that point — how do you as a user guide the model?"(問題は、任意のタスクにおいて、LLMに何をさせたいかをまだ明確にしなければならないことです。環境は何か?どう指定するか?最終目標は言えますが、そこに至るまで -- ユーザーとしてどうモデルを導くのか?) Sebastianは自律型エージェントの根本的な課題を提起する:仕様の定義は難しい。現在のエージェントのパラダイムはコードでうまく機能するのは環境が明確に定義されているからであり、汎用エージェントが解決すべきインターフェース問題は何年もかかる可能性がある。
オープンウェイトモデルと政策について: NathanはAI2でのTULUポストトレーニングの取り組みをリードしており、これは米国でも数少ない完全にオープンなトレーニングパイプラインの一つだ。重要なギャップを指摘する:中国のラボがオープンモデルを大量に投入している一方で、米国のオープンウェイトの取り組みは統合に直面している。2025年のホワイトハウスAIアクションプランがオープンソースを受け入れたことは心強いが、政策を持続的な資金に転換することが課題として残っている。
2026年のAIの現状に関する7つの重要ポイント
- 一人勝ちのシナリオはない -- アイデアはラボ間で自由に流れる。差別化要因は独自の技術ではなく、計算予算とハードウェアである
- 中国のオープンウェイト戦略は成功している -- DeepSeekがムーブメントを起こしたが、Zhipu AI、MiniMax、Kimi Moonshootが同等の競争力を持つモデルをリリースしており、これはグローバルな影響力のための意図的な戦略である
- 事前学習は終わっていない -- 計算資源の大部分はまだ事前学習に投入されているが、強化学習によるポストトレーニングが次の大きな能力向上の源泉となる
- マルチモデル利用が標準 -- トップ研究者でさえ異なるタスクに3〜4種類のモデルを使い分けており、すべてのユースケースを支配する単一のモデルは存在しないことを示唆している
- コードがエージェントのキラーアプリ -- AnthropicのClaude Codeへの賭けは、コーディングが明確に定義された環境を提供するため成功している。汎用エージェントはまだ根本的な仕様の課題に直面している
- 2,000ドルのAIサブスクリプションが登場する -- 200ドルから2,000ドルへの価格帯のジャンプは2026年中に起こり、プロフェッショナル向けに測定可能なより高い能力を提供するモデルが推進力となる
- オープンソースAIには持続可能な資金が必要 -- 米国にはオープンAIへの強力な政策支援があるが、中国のオープンウェイトリリースを可能にしている政府支援のインセンティブ構造が不足している
AI活用を進める組織への示唆
この対話から浮かび上がるのは、モデルレイヤーの急速なコモディティ化の姿だ。どの企業も技術的な堀を維持できないなら、価値はAIの使い方 -- アプリケーション、ワークフロー、インテグレーション -- に移る。組織は単一のモデルプロバイダーに賭けるべきではない。これらのシステムを構築する研究者自身が、タスクや品質に応じて毎日複数のモデルを切り替えて使っている。このマルチモデルの未来は一時的なフェーズではなく、新しい常態だ。真の競争優位性は、各タスクに最適なモデルを活用するエージェント駆動のワークフローを構築することにある。


