【けーえるだいばーじぇんす】

KLダイバージェンス とは?

💡 2つの確率分布のギャップを数字にする、AIの物差し
📌 このページのポイント
KLダイバージェンス: 2つの分布の違い 分布P(真の分布) 分布Q(近似分布) KL(P||Q) 非対称性 KL(P||Q) ≠ KL(Q||P) 距離とは異なる 活用例 知識蒸留 / VAE RLHF制約 値の意味 0 = 完全一致 大 = 大きく異なる
KLダイバージェンスのイメージ
ひよこ ひよこ

KLダイバージェンスって何を測るものなの?

ペンギン先生 ペンギン先生

2つの確率分布がどのくらい違うかを数字で測るものだよ。たとえば天気予報Aと天気予報Bがどのくらい違う予測をしているか、というのを1つの数字で表せるんだ

ひよこ ひよこ

クロスエントロピーとは何が違うの?

ペンギン先生 ペンギン先生

クロスエントロピーはKLダイバージェンスにエントロピーを足したものなんだ。正解分布が固定の場合は実質的に同じ意味になるけど、2つの分布が両方変わる場合はKLダイバージェンスを使う必要があるよ

ひよこ ひよこ

AIのどんなところで使われてるの?

ペンギン先生 ペンギン先生

知識蒸留で大きなモデルの出力を小さなモデルに真似させるときや、VAEの学習、RLHFでの方策の制約など、いろんなところで使われているよ。AIの基礎中の基礎の概念だね

ひよこ ひよこ

非対称って聞いたけど、どういうことかな?

ペンギン先生 ペンギン先生

AからBへのKLダイバージェンスとBからAへのKLダイバージェンスが違う値になるんだ。つまり距離とは違うんだよ。この非対称性があるからこそ、用途によって方向を使い分ける必要があるんだ。ちょっとクセのある指標だね

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「KLダイバージェンス」って出てきたら「2つの確率分布の違いを測る指標」と思えればだいたいOK!
📖 おまけ:英語の意味
「Kullback-Leibler Divergence」 = カルバック・ライブラーの発散度
💬 KullbackさんとLeiblerさんが1951年に提案した指標で、情報理論の古典だよ
← 用語集にもどる