【くろすえんとろぴー】

クロスエントロピー とは?

💡 AIの予測と正解のズレを測る、機械学習の基本ものさし
📌 このページのポイント
クロスエントロピー: 予測と正解のズレ 良い予測 正解 猫: 100% 犬: 0% 予測 猫: 90% CE = 0.1 ズレ小さい 悪い予測 正解 猫: 100% 予測 猫: 20% CE = 1.6 ズレ大きい クロスエントロピーの値 0 完璧 全然ダメ 学習でこの値を最小化する → AIの予測精度が向上
クロスエントロピーのイメージ
ひよこ ひよこ

クロスエントロピーって難しそうな名前だけど、何をするものなの?

ペンギン先生 ペンギン先生

AIの予測がどのくらい正解からズレているかを数字で測るものだよ。たとえばAIが『猫の確率90%』と予測して正解が猫なら、クロスエントロピーは小さくなるんだ

ひよこ ひよこ

数字が小さいほどいいってことかな?

ペンギン先生 ペンギン先生

そうだよ。完璧な予測ならクロスエントロピーは0になる。AIの学習ではこの数字をどんどん小さくするように重みを調整していくんだ

ひよこ ひよこ

どこで使われてるの?

ペンギン先生 ペンギン先生

画像分類テキスト分類、LLMの学習など、ほぼすべての機械学習タスクで使われているよ。LLMの場合は次に来る単語の予測精度をクロスエントロピーで測っているんだ

ひよこ ひよこ

KLダイバージェンスとは何が違うのかな?

ペンギン先生 ペンギン先生

実はクロスエントロピーはKLダイバージェンスとエントロピーの合計なんだ。正解の分布が固定の場合、クロスエントロピーの最小化はKLダイバージェンスの最小化と同じになるから、実用上はどちらを使っても同じ結果になるんだよ

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「クロスエントロピー」って出てきたら「AIの予測と正解のズレを測る指標」と思えればだいたいOK!
📖 おまけ:英語の意味
「Cross-Entropy」 = 交差エントロピー
💬 情報理論のエントロピー(乱雑さ)を2つの分布間で交差させて比較するという意味だよ
← 用語集にもどる