オープンフロンティア研究
critical Confidence: high Since 2024-01

オープンフロンティア研究

AI研究をオープンで協力的に保つ運動

researchopen-sourcepolicyacademic

危機

西側民主主義国におけるオープンフロンティアAI研究は、存亡の危機に直面している。学術研究者が利用できるリソースと閉鎖的な企業ラボとのギャップは、10年前の2倍から今日の10〜1000倍へと拡大している。かつてオープンに発表していた主要なAIラボ(Google、OpenAI、DeepMind)は、徐々に門戸を閉ざしている。

一方、中国はオープンAI貢献のリーダーとして台頭しており、DeepSeekやAlibabaなどの企業が詳細な技術論文を発表し、競争力のあるオープンウェイトモデルをリリースしている。

なぜオープン研究が重要なのか

歴史的先例

ジェフ・ディーンが指摘するように、Google自体はオープンな学術研究の上に構築されている:

  • 学術研究からのTCP/IP
  • Stanford Digital Library Projectの資金提供によるPageRank
  • 30〜40年前のニューラルネットワーク研究からのディープラーニング

すべての主要な技術パラダイムは、オープンなコラボレーションによって加速されてきた。

マンハッタン計画 vs インターネットモデル

ヤン・ストイカは、重要な技術開発における2つの歴史的モデルを対比している:

  1. マンハッタン計画: 閉鎖的、国有化、管理された
  2. インターネット: オープン、協力的、共有された成果物

どちらも目標を達成したが、インターネットモデルはより分散したイノベーションを生み出し、より多くの人々に利益をもたらした。

民主主義と権力

ヨシュア・ベンジオは、オープンAIを民主主義に不可欠なものとして位置づけている:

“The power of intelligence is going to give power to whoever controls it, including potentially AIs that could be smarter than us, including dictators. This is a threat to our democracies because democracy is about sharing power.”

知性の力は、それを制御する者に権力を与える。これには、私たちよりも賢くなる可能性のあるAI、独裁者も含まれる。これは民主主義にとって脅威だ。なぜなら、民主主義とは権力を共有することだからだ。

サンプル効率と代表性

イェジン・チェは、AIは次のようであるべきだと強調している:

  • 人間による - 人間の価値観を反映する
  • 人間によって - 少数の企業だけでなく、多様な社会によって作られる
  • 人間のための - 権力者だけでなく、すべての人に利益をもたらす

現状

閉鎖的なラボ

米国の主要ラボは徐々に公開を制限している:

  • OpenAI: かつてすべてを公開していたが、現在は選択的に公開
  • Google/DeepMind: オープンな公開を減らし、競争圧力に対応
  • Anthropic: 限定的な研究共有

オープンな代替手段

オープンエコシステムは次の手段で継続している:

  • Meta AI: Llamaモデル、オープンな研究文化
  • 中国のラボ: DeepSeek、Qwen、詳細な出版物
  • 学術コラボレーション: LAUD Institute、Berkeley AI Research
  • スタートアップ: 一部(Mistralなど)はオープン性にコミット

必要なもの

リソース

学術研究者には次のものが必要:

  • 計算資源へのアクセス: 閉鎖的なラボと同等
  • 競争力のある報酬: 2倍の差ではなく、10〜1000倍ではない
  • 長期的な資金提供: 3〜5年の研究期間

コラボレーションインフラ

  • 共有成果物: コード、モデル、データセット
  • オープンベンチマーク: 透明な評価
  • 出版文化: オープン性を報酬とする

政策支援

  • 政府資金: NSF、DARPAによるオープンAIへの投資
  • 国際協力: 米国だけでなく、グローバルなコラボレーション
  • 規制フレームワーク: オープン研究を不利にしないもの

主要な声

ヤン・ストイカ(バークレー):

“In order for the best minds to collaborate, they need to be able to share the information and work on shared artifacts.”

最高の頭脳が協力するためには、情報を共有し、共有成果物で作業できる必要がある。

ヨシュア・ベンジオ(Law Zero):

“We need a global agreement on what to do and not do, where countries agree not to use AI to dominate others.”

何をすべきか、何をすべきでないかについて、国々がAIを他者を支配するために使用しないことに同意する、グローバルな合意が必要だ。

イェジン・チェ(スタンフォード):

“We need to democratize generative AI. Different countries and different social sectors should be able to create that AI.”

生成AIを民主化する必要がある。異なる国々や異なる社会セクターがそのAIを作成できるようにすべきだ。

関連資料

  • Yoshua Bengio - Law Zeroの創設者、AI安全性とオープン性の支持者
  • Yejin Choi - 民主的AIを提唱するスタンフォード教授
  • Jeff Dean - Googleのチーフサイエンティスト、学術資金の支持者

Expert Mentions

Video thumbnail

Yan Stoica

In order for them to collaborate, they need to be able to share the information and work on shared artifacts. When it comes to shared artifacts, you're talking about code.

Video thumbnail

Yoshua Bengio

AI is going to change the world. The power of intelligence is going to give power to whoever controls it. This is a threat to our democracies.

Video thumbnail

Yejin Choi

AI should really be of humans, by humans, and for humans. Different countries and different social sectors should be able to create that AI, not just a few companies in two or three countries.