【おもみげんすい】
重み減衰(Weight Decay) とは?
💡 大げさな主張をちょっと抑えて、バランスのいい答えを出す調整弁
📌 このページのポイント
Weight Decayって、重みがどんどん小さくなっちゃうってこと?
L2正則化と同じって言われたんだけど、違うの?
じゃあAdamのときはどうするの?
λ(ラムダ)って何?
どれくらい減衰させるかを決める係数だよ。大きくしすぎるとモデルが弱くなりすぎるし、小さすぎると正則化が効かない。0.01〜0.0001くらいが定番なんだ。
📖 おまけ:英語の意味
「Weight Decay」 = 重み減衰
💬 Weight(重み)がDecay(減衰・腐食)するというイメージから来ているよ。毎ステップ重みを少しずつ縮小させることで、特定の重みが異常に大きくなるのを防いでいるんだよ。