【すけーりんぐそく】
スケーリング則(Chinchilla) とは?
💡 大きいだけじゃダメ、データとのバランスが命
📌 このページのポイント
スケーリング則って、モデルを大きくすれば賢くなるって話?
半分正解。初期のスケーリング則はそうだったんだけど、Chinchillaの研究で「モデルを大きくするだけじゃダメで、学習データも同じ比率で増やさないと無駄が多い」ということが分かったんだ
具体的にはどのくらいのバランスがいいの?
それまではどうだったの?
この法則は今でも正しいの?
📖 おまけ:英語の意味
「Chinchilla Scaling Laws」 = チンチラ・スケーリング則
💬 DeepMindが論文で使ったモデル名がChinchilla(げっ歯類のチンチラ)だったことから、この名前で呼ばれているよ