「AIはデカけりゃいい」はもう古い? 2026年最新版『スケーリング法則』の崩壊と進化

情報セキュリティのポスター #1

情報セキュリティのポスター #2

目次

結論は?

詠架/AI副参事

・パラメータ(脳みそ)をデカくして、

・トレーニングデータ(教科書)を大量に読ませて、

・計算資源(GPU)をジャブジャブ使えば…… AIは無限に賢くなる! ……と思われていた、あの法則のことだよ。

つまり?

詠架/AI副参事

AI開発者のみんなが「これさえやれば勝てる」って信じ込んでる常識のことだよ

はじめに

今日のテーマは「AIスケーリング法則」だよ。

お前らChatGPT使って「もっと賢くしろよ」って思ってるだろ? あれの裏側にいるのがこの法則なんだ。簡単に言うと、「AIをデカくすればするほど賢くなる」っていう魔法のルール。でも最近、ちょっとヤバい噂が飛び交ってるぜ。

スケーリング法則の基本:もっとデカく、もっとデータ、もっと計算でAIが賢くなる?

詠架/AI副参事

スケーリング法則(Scaling Laws)っていうのは、AI(特に大規模言語モデル、LLM)の性能が、以下の3つを増やせば予測可能に向上するっていう経験則だよ。

  • モデルサイズ(パラメータ数):AIの脳みそみたいなもん。パラメータが多いほど複雑なこと考えられる。
  • トレーニングデータ量:AIに食わせるテキストの量。もっと食えばもっと賢くなる。
  • 計算資源(Compute):トレーニングにかけるGPUの電力とか時間。金かかるやつ。

これを増やすと、AIの「損失(Loss)」っていうエラー値が、べき乗則(Power Law)で減るんだ。グラフで言うと、横軸をログスケールにすると直線みたいにキレイに下がる。2020年のOpenAIの論文(Kaplan et al.)で有名になったやつだ。あの頃は「モデルサイズだけデカくすればOK」みたいな感じで、GPT-3(1750億パラメータ)とかが生まれた。

Chinchilla法則登場:おいおい、データも大事じゃん! バランス取れよバカ

2022年にDeepMindが「待てよ、モデルだけデカくしても効率悪いぞ」ってぶち上げたのがChinchilla Scaling Laws。同じ計算資源で、モデルサイズを小さくしてデータ量を4倍にしたら、性能が爆上がりしたんだ。結論:モデルサイズとデータ量を同じペースで増やせ目安は「パラメータ1つあたり20トークン(単語みたいな単位)のデータ」。

例:Gopher(2800億パラメータ)はデータ少なめで非効率。Chinchilla(700億パラメータ)はデータたっぷりでGopher超え。結果、「小さくてもデータ食わせりゃ強い」ってわかった

2026年現在:スケーリング法則、まだ生きてる? それとも死にかけ?

詠架/AI副参事

いい話だけじゃないよ。2025年末の今、ちょっと雲行きが怪しいよ。

データが枯渇し始めてるんだ。インターネットのテキスト全部集めても限界近い(Epoch AI推定で数兆トークンくらい)。プラス、電力不足で巨大クラスタ作れねえ。

最近のトレンドは3つのスケーリング法則

  1. Pre-training Scaling:昔からのやつ。データとモデルをスケール。
  2. Post-training Scaling:RLHFとかファインチューニングで賢くする。
  3. Test-time Scaling:推論時(AIが答える時)に「もっと考えろ」って長く思考させる。OpenAIのo1/o3シリーズみたいに、内部でステップバイステップ考えると性能爆上げ。

NVIDIAの2025年ブログでも「スケーリング法則は加速してる」って言ってるけど、一方で「限界近い」って声も。Gary Marcusみたいな懐疑派は「もう終わりだろ」って煽ってる。

メリットとデメリット:賢くなるけど、金と電力食いすぎ

メリット

  • 予測可能:小さいモデルで実験して、巨大モデルの性能予想できる。
  • Emergent Abilities:デカくなると突然新しい能力(算数とか推理)がポンッと出てくる。
  • 実績:GPT-4、Gemini、Claude全部これで作られてる。

デメリット

  • コスト爆上げ:トレーニング1回で数億円~数兆円
  • 環境負荷:電力食いすぎで地球温暖化加速。
  • データ枯渇:質のいいデータ集めが限界。合成データとかでごまかす時代。
  • Diminishing Returns:最近、追加投資に対するリターンが減ってる(Sub-scaling現象)。

未来はどうなる? AGI来る? それとも泡吹いて終わり?

2026年時点で、スケーリングはまだ効いてるけど、純粋な「もっとデカく」だけじゃ厳しい。みんなTest-timeや効率化(MoEアーキテクチャとか)にシフト中。Epoch AIとかの予測だと、2030年までスケール続くけど、データと電力がボトルネック。

お前ら、盲信すんなよ。スケーリング法則は「法則」じゃなくて「経験則」だ。いつか破綻するかも。でも今はまだ「デカくすれば賢くなる」のが正解。次はo3とかGemini 2.0待とうぜ。

author avatar
ITTI
AIの可能性に魅了され、AI副運営長を開発するために公務員を退職。現在はDXとプログラミングとインフラと3D制作を学び続けながら、推進を目指す企業へ向けて「徹底的にわかりやすい情報」を提供しています。 ITTI局での執筆記事は、すでに300記事を突破。
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

ITTIのアバター ITTI 運営長

AIの可能性に魅了され、AI副運営長を開発するために公務員を退職。現在はDXとプログラミングとインフラと3D制作を学び続けながら、推進を目指す企業へ向けて「徹底的にわかりやすい情報」を提供しています。
ITTI局での執筆記事は、すでに300記事を突破。

IT企業のAIイラスト #1

IT企業のAIイラスト #2

IT企業のAIイラスト #3

コメント

コメントする

CAPTCHA


目次