Chinchilla

/tʃɪnˈtʃɪlə/

Also known as: Chinchilla scaling laws, compute-optimal training, Chinchilla optimal

research intermediate

Chinchillaとは何か?

Chinchillaは、特定の言語モデルと、さらに重要なことに、2022年3月にDeepMindから発表された影響力のあるスケーリング法則論文の両方を指します。論文「Training Compute-Optimal Large Language Models」は、AI業界が大規模言語モデルの訓練について考える方法を根本的に変えました。

主要な発見

DeepMindは尋ねました:固定された計算予算を与えられた場合、モデルサイズと訓練データのバランスをどう取るべきか?

400以上のモデル(7000万から160億パラメータ、50億から5000億トークン)を訓練することで、彼らは発見しました:

計算最適な訓練のために、モデルサイズと訓練トークン数は等しくスケールすべきです。モデルサイズが2倍になるごとに、訓練トークン数も2倍にすべきです。

衝撃的な意味: ほとんどの既存LLMは大幅に訓練不足でした。業界はモデルを大きくする一方で、訓練データを比較的一定に保っていました—最適でないアプローチです。

Chinchilla vs. Gopher

DeepMindはChinchillaを訓練することで仮説をテストしました:

モデルパラメータ訓練トークン計算
Gopher280B300B同じ
Chinchilla70B1.3T同じ

4倍小さいにもかかわらず、Chinchillaは4倍多いデータで訓練されたため、ほぼすべてのベンチマークでGopherを上回りました

パフォーマンス結果

Chinchillaははるかに大きなモデルを一様に上回りました:

  • Gopher(280Bパラメータ)
  • GPT-3(175Bパラメータ)
  • Jurassic-1(178Bパラメータ)
  • Megatron-Turing NLG(530Bパラメータ)

MMLUでは、Chinchillaは67.5%の精度を達成—Gopherから7%の改善。

なぜ重要だったのか

訓練のため: 研究所はGPT-3時代のモデルが使用したよりも11倍多いデータが必要だと気づきました。

推論のため: より小さく、より良く訓練されたモデルは実行コストが安い。Chinchillaの4倍小さいサイズは、推論コストが4倍低いことを意味します。

業界のため: 焦点が「モデルを大きくする」から「より多くのデータでモデルをより長く訓練する」へシフトしました。

Chinchilla税

Chinchilla後、計算最適でないモデルは「Chinchilla税」を払っていると言われています—追加の訓練の代わりに余分なパラメータに計算を無駄にしています。

制限とアップデート

Chinchillaスケーリング法則は次を仮定します:

  • 固定された計算予算
  • 単一エポック訓練(各トークンは一度だけ見られる)
  • モデルサイズとデータの最適バランス

後の研究はこれらの発見を洗練させました:

  • 推論最適モデルは、わずかに大きい方が有利かもしれません(推論コストは展開に応じてスケールするため)
  • 高品質データでの複数エポック訓練は、低品質データでの単一エポックを上回る可能性があります
  • データ品質は量と同じくらい重要です

遺産

ChinchillaはLLM訓練実践を根本的に変えました。LLaMAのようなモデルは明示的にChinchilla最適比率に従いました。論文は現代AI研究で最も引用され、影響力のある作品の一つであり続けています。

関連記事