【しぐもいどかんすう】
シグモイド関数 とは?
💡 どんな値もゼロとイチの間に収める「AIのS字カーブ」
📌 このページのポイント
シグモイド関数ってどんな形?
横軸に入力値、縦軸に出力値をとると、きれいなS字カーブになるよ。入力が大きなマイナスだと出力は0に近づき、大きなプラスだと1に近づく。入力が0のときちょうど出力は0.5になる。この「0と1の間に滑らかに収まる」性質が便利なんだ。
なんで中間層ではあまり使わないの?
勾配消失問題が起きやすいからだよ。シグモイドは入力が大きいか小さいと勾配がほぼ0になる。ニューラルネットワークの層が深くなると、この小さい勾配同士の掛け算で勾配がどんどん消えてしまう。だから中間層ではReLUという関数が主流になったんだ。
じゃあどこで使われてるの?
シグモイドの数式って覚えなきゃダメ?
シグモイドの代わりにtanhを使うこともあるの?
まとめ:ざっくりこれだけ覚えればOK!
「シグモイド関数」って出てきたら「値を0~1のS字カーブに変換する活性化関数で、確率やゲートの表現に使われるもの」と思えればだいたいOK!
📖 おまけ:英語の意味
「Sigmoid」 = S字型の
💬 ギリシャ文字のシグマ(S)に由来する。グラフがS字型のカーブを描くことから名付けられたよ