Newsfeed / NeurIPS 2025:Jeff Dean、Yejin Choi、AI研究の現状
Laude Institute·December 11, 2025

NeurIPS 2025:Jeff Dean、Yejin Choi、AI研究の現状

NeurIPSでの最先端AI研究者たち、GoogleのTPU、なぜRLはまだデータについてなのか、そしてスケーリングよりもアブダクティブ推論のケース。

NeurIPS 2025:Jeff Dean、Yejin Choi、AI研究の現状

NeurIPS 2025がAI研究の方向性について明らかにすること

このビデオは、NeurIPS 2025での率直なインタビューを通じて、最先端AI研究の脈動を捉えています。会話は、現在のアプローチが何を達成でき何ができないかについての根本的な問いに取り組んでいる分野を明らかにしています。

Jeff DeanはGoogleの第7世代TPU「Ironwood」について議論し、ハードウェア設計のために2.5〜6年先のML計算ニーズを予測するという困難な課題について語っています。より興味深いのは、学術研究資金への彼の支持です - 彼と同僚は最近、Googleがどのように学術研究(TCP/IP、PageRankに資金を提供したStanford Digital Library Project、30〜40年前のニューラルネットワーク)の上に構築されたかを追跡する論文を発表しました。彼の提案:混合チームによる3〜5年の研究ムーンショットが、野心的だが達成可能な目標のスイートスポットです。

Yejin Choiは最も挑発的な見解を提示します:強化学習への興奮にもかかわらず、すべてはデータに帰結します。RLは魔法の探索ではありません - それは「そのくらいのデータでもまだ十分ではないので、さらにデータを合成する」ことです。彼女の懸念は、現在のすべてのアプローチが「インターネットデータの近傍」 - 人間の知識の産物 - 内を補間しており、それは癌の治療法のような新しい真実を発見することと同じではないということです。彼女は、帰納と演繹だけでなく「アブダクティブ推論」(シャーロック・ホームズのように部分的な観察から仮説を形成する)を支持し、後者を「すでに持っていた情報の再生」と呼んでいます。

Robert Nishiharaのインタビューは歴史的な文脈を追加します - NeurIPSは400人がスキー休憩を中心にワークショップをスケジュールしていたところから30,000人の参加者になりました。投資不足についての彼の洞察:ほとんどの研究はモデルの重みに知識を入れることに焦点を当てていますが、コンテキストベースのアプローチで「できることはたくさんある」。彼は、モデルの重みをまったく変えずに継続学習のブレークスルーが起こることを予見しています。

Jeff Dean、Yejin Choi、Robert Nishiharaからの4つの洞察

  • TPU設計のためのJeff Deanの予測演習:フィールドが2.5〜6年で必要とするML計算を予測し、次に不確実でも「重要かもしれない」もののハードウェア機能を構築する
  • Yejin Choiは、推論のためのRLは教師ありファインチューニングと根本的に異なるわけではないと主張する - 両方ともデータ合成戦略であり、十分な努力でSFT(OpenThoughtのような)がRLアプローチを打ち負かすことができる
  • 「アブダクティブ推論」 - 部分的な観察から仮説を形成すること - は科学者や探偵が実際に行うことであり、Choiが「すでにあなたの知識にあったことの言い換え」と呼ぶ帰納/演繹とは異なる
  • Robert Nishiharaは、重みの更新ではなくコンテキスト管理による継続学習のブレークスルーを予測している - 今日の推論はセッションごとに「捨てられる」

Related