【ミニバッチこうばいこうかほう】
ミニバッチ勾配降下法 とは?
💡 少人数チームで素早く判断を積み重ねる、賢い会議スタイル
📌 このページのポイント
勾配降下法ってデータ全部使うんじゃないの?
ミニバッチって何件くらいのまとまりなの?
なんでわざわざ小分けにするの? 全部一気にやった方が正確そうなんだけど。
全データを一度に使うと計算が遅くてメモリも大量に必要なんだよ。ミニバッチなら何度も細かく更新できるから、学習のペースが速くなるんだ。
1件ずつの方がもっと速くない?
GPUとも相性がいいって聞いたんだけど、それはなんで?
📖 おまけ:英語の意味
「Mini-Batch Gradient Descent」 = ミニバッチ勾配降下法
💬 Gradient(勾配)とDescent(降下)で「損失の坂を下る」イメージ。Mini-Batchは「小さなまとまり」で、全データでも1件ずつでもなく中間の量を使う工夫から来ているんだよ。