【ごさぎゃくでんぱほう】
誤差逆伝播法 とは?
💡 出力側の失敗を原因探しで逆向きに追いかける「責任の連鎖」
📌 このページのポイント
- ニューラルネットワークの重みを学習するための核心アルゴリズム
- 出力の誤差を出力層から入力層へ逆向きに伝播させる
- 連鎖律(チェーンルール)を使って効率的に勾配を計算する
- 勾配降下法と組み合わせて重みを更新する
誤差逆伝播法って難しそうだけど、一言でいうと何をするの?
「この予測のミスは誰のせい?」を出力から入力に向かって追いかける仕組みだよ。ニューラルネットワークはたくさんの重みがあるから、どの重みがどれだけ間違いに貢献したかを計算して、それぞれをちょっとずつ修正するんだ。
なんで「逆」向きなの?普通に前向きに計算できないの?
「連鎖律」って何?
数学の微分のルールで「合成関数の微分」のことだよ。f(g(x))の微分はf'(g(x))×g'(x)っていうやつ。ニューラルネットワークは関数が何層も重なった合成関数なので、チェーンルールを使って出力から入力へと誤差を次々に掛け算しながら伝えていけるんだ。
層が深くなると誤差が薄まって前の方まで届かなくなるって本当?
まとめ:ざっくりこれだけ覚えればOK!
📖 おまけ:英語の意味
「Backpropagation」 = 後ろへの伝播
💬 Back(後ろ・逆方向)+ Propagation(伝播)。誤差を逆向きに伝える仕組みがそのまま名前になっているよ