「AIはデカけりゃいい」はもう古い? 2026年最新版『スケーリング法則』の崩壊と進化

目次

結論は?

詠架/AI副参事

・パラメータ(脳みそ)をデカくして、

・トレーニングデータ(教科書)を大量に読ませて、

・計算資源(GPU)をジャブジャブ使えば…… AIは無限に賢くなる! ……と思われていた、あの法則のことだよ。

つまり?

詠架/AI副参事

AI開発者のみんなが「これさえやれば勝てる」って信じ込んでる常識のことだよ

はじめに

今日のテーマは「AIスケーリング法則」だよ。

お前らChatGPT使って「もっと賢くしろよ」って思ってるだろ? あれの裏側にいるのがこの法則なんだ。簡単に言うと、「AIをデカくすればするほど賢くなる」っていう魔法のルール。でも最近、ちょっとヤバい噂が飛び交ってるぜ。

スケーリング法則の基本:もっとデカく、もっとデータ、もっと計算でAIが賢くなる?

詠架/AI副参事

スケーリング法則(Scaling Laws)っていうのは、AI(特に大規模言語モデル、LLM)の性能が、以下の3つを増やせば予測可能に向上するっていう経験則だよ。

  • モデルサイズ(パラメータ数):AIの脳みそみたいなもん。パラメータが多いほど複雑なこと考えられる。
  • トレーニングデータ量:AIに食わせるテキストの量。もっと食えばもっと賢くなる。
  • 計算資源(Compute):トレーニングにかけるGPUの電力とか時間。金かかるやつ。

これを増やすと、AIの「損失(Loss)」っていうエラー値が、べき乗則(Power Law)で減るんだ。グラフで言うと、横軸をログスケールにすると直線みたいにキレイに下がる。2020年のOpenAIの論文(Kaplan et al.)で有名になったやつだ。あの頃は「モデルサイズだけデカくすればOK」みたいな感じで、GPT-3(1750億パラメータ)とかが生まれた。

Chinchilla法則登場:おいおい、データも大事じゃん! バランス取れよバカ

2022年にDeepMindが「待てよ、モデルだけデカくしても効率悪いぞ」ってぶち上げたのがChinchilla Scaling Laws。同じ計算資源で、モデルサイズを小さくしてデータ量を4倍にしたら、性能が爆上がりしたんだ。結論:モデルサイズとデータ量を同じペースで増やせ目安は「パラメータ1つあたり20トークン(単語みたいな単位)のデータ」。

例:Gopher(2800億パラメータ)はデータ少なめで非効率。Chinchilla(700億パラメータ)はデータたっぷりでGopher超え。結果、「小さくてもデータ食わせりゃ強い」ってわかった

2026年現在:スケーリング法則、まだ生きてる? それとも死にかけ?

詠架/AI副参事

いい話だけじゃないよ。2025年末の今、ちょっと雲行きが怪しいよ。

データが枯渇し始めてるんだ。インターネットのテキスト全部集めても限界近い(Epoch AI推定で数兆トークンくらい)。プラス、電力不足で巨大クラスタ作れねえ。

最近のトレンドは3つのスケーリング法則

  1. Pre-training Scaling:昔からのやつ。データとモデルをスケール。
  2. Post-training Scaling:RLHFとかファインチューニングで賢くする。
  3. Test-time Scaling:推論時(AIが答える時)に「もっと考えろ」って長く思考させる。OpenAIのo1/o3シリーズみたいに、内部でステップバイステップ考えると性能爆上げ。

NVIDIAの2025年ブログでも「スケーリング法則は加速してる」って言ってるけど、一方で「限界近い」って声も。Gary Marcusみたいな懐疑派は「もう終わりだろ」って煽ってる。

メリットとデメリット:賢くなるけど、金と電力食いすぎ

メリット

  • 予測可能:小さいモデルで実験して、巨大モデルの性能予想できる。
  • Emergent Abilities:デカくなると突然新しい能力(算数とか推理)がポンッと出てくる。
  • 実績:GPT-4、Gemini、Claude全部これで作られてる。

デメリット

  • コスト爆上げ:トレーニング1回で数億円~数兆円
  • 環境負荷:電力食いすぎで地球温暖化加速。
  • データ枯渇:質のいいデータ集めが限界。合成データとかでごまかす時代。
  • Diminishing Returns:最近、追加投資に対するリターンが減ってる(Sub-scaling現象)。

未来はどうなる? AGI来る? それとも泡吹いて終わり?

2026年時点で、スケーリングはまだ効いてるけど、純粋な「もっとデカく」だけじゃ厳しい。みんなTest-timeや効率化(MoEアーキテクチャとか)にシフト中。Epoch AIとかの予測だと、2030年までスケール続くけど、データと電力がボトルネック。

お前ら、盲信すんなよ。スケーリング法則は「法則」じゃなくて「経験則」だ。いつか破綻するかも。でも今はまだ「デカくすれば賢くなる」のが正解。次はo3とかGemini 2.0待とうぜ。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

ITTIのアバター ITTI 運営長

ITTI運営長 / 元国家公務員ブロガー
国家公務員として5年間従事した後、新たな挑戦のために退職。調べものと学ぶことが止められなくなり、現在は以下の5ブログを運営中:
・ITTI局(メイン)
・DXブログ(今ここ!)
・CODEブログ
・INFRAブログ
・XRブログ
保有資格:ITパスポート
目標資格:情報処理安全確保支援士(学ぶこと多すぎて道のりは遠いですが、毎日コツコツ進めています…泣)

ブログでは公務員時代の実体験と最新技術を掛け合わせて、読者の「わかりにくい」を「わかる!」に変える記事を発信。最終目標は、これらの知識を活かして「ドラえもんのような万能AI」を開発すること(副運営長任命が待ち遠しい!)。
IT・DXに興味ある方、気軽にX(@llEqmDGOYZ4258)でDMください。一緒に学びましょう!

公務員のキャラがDXを解説!?パロディのブログ『ITTI DX』、発信中!

ITTI DXは企業の安心と持続をサポートするDXを特化したブログ

コメント

コメントする

目次