【おもみ】

重み(ウェイト) とは?

💡 AIの「判断のクセ」を決める目に見えない調整つまみ
📌 このページのポイント
ニューラルネットワークの重み x₁ x₂ x₃ Σ → f(x) w₁ = 0.8 w₂ = 0.3 w₃ = −0.5 入力 出力 線の太さ =重みの大きさ 重みの値がAIの「判断基準」を決める
ニューラルネットワークの重み ― 接続の強さが出力を左右する
ひよこ ひよこ

重みってなに?AIの中に天秤でもあるの?

ペンギン先生 ペンギン先生

いい例えだね!まさに天秤みたいなものだよ。たとえば猫の画像を判別するとき、「とがった耳」に大きい重み、「背景の色」に小さい重みをつけて、重要な特徴を見分けてるんだ

ひよこ ひよこ

じゃあ学習するってことは、その重みを変えていくってこと?

ペンギン先生 ペンギン先生

その通り!最初はデタラメな重みからスタートして、間違えるたびに「ここの重みをもうちょっと大きくしよう」「こっちは小さくしよう」って微調整していくんだよ。これがバックプロパゲーションっていう仕組みだね

ひよこ ひよこ

おもしろい!重みって全部でいくつくらいあるの?

ペンギン先生 ペンギン先生

モデルの規模によるけど、たとえばGPT-3で1750億個、最近の大規模モデルだと数千億〜数兆個にもなるよ。「パラメータ数○○B」って聞いたことない?あのBはBillion(10億)で、ほぼ重みの数を指してるんだ

ひよこ ひよこ

えっ、そんなに!全部ちゃんと意味があるの?

ペンギン先生 ペンギン先生

実はここがベテランでも議論になるところでね。すべての重みが本当に必要かっていうと、実はそうでもないんだ。「プルーニング」っていう技術で重みの90%以上をゼロにしても性能がほとんど落ちないケースもあるよ

ひよこ ひよこ

90%も!?じゃあ無駄が多いってこと?

ペンギン先生 ペンギン先生

そこが面白いところで、学習時には冗長な重みがあった方がうまく学べるんだけど、推論時には削減できるんだ。人間の脳も成長過程でシナプスの「刈り込み」が起きるんだけど、それにすごく似てるんだよね

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「重み」って出てきたら「AIが学習で調整する無数の数値つまみ」と思えればだいたいOK!
📖 おまけ:英語の意味
「Weight」 = 重み・重要度
💬 数学や統計で「重み付け」って使うのと同じ感覚だよ。ある入力をどれくらい重要視するかを数値で表してるんだ
← 用語集にもどる