【じょうほうえんとろぴー】

情報エントロピー とは?

💡 「予想外」が多いほど情報量は多い——驚きを数値にする魔法の指標
📌 このページのポイント
情報エントロピーの対比 エントロピー → 高(1ビット) 50% 50% 結果が予測できない = 情報量が多い エントロピー → 低(0ビット) 100% 結果が分かっている = 情報量がゼロ 予測しにくいほどエントロピー(情報量)は大きくなる
コイン投げ(高エントロピー)vs 確定事象(エントロピー0)
ひよこ ひよこ

情報エントロピーって、情報に「乱雑さ」があるってこと?

ペンギン先生 ペンギン先生

そう!簡単に言うと「次に何が来るか予測しにくいほど、情報量が多い」ということを数値化したものだよ。たとえば毎日晴れの砂漠で「明日も晴れ」と言われても驚かないけど、「明日は雪」と言われたらすごい情報量だよね。その「驚き度」を測るのがエントロピーだよ

ひよこ ひよこ

コイン投げだとどうなるの?

ペンギン先生 ペンギン先生

公平なコインは表と裏が50%ずつだから、エントロピーは最大の1ビットになるよ。でも表が100%出るイカサマコインなら結果は確定してるからエントロピーは0。つまり「結果が読めないほどエントロピーが高い」ということだね

ひよこ ひよこ

それがデータ圧縮と関係あるの?

ペンギン先生 ペンギン先生

大ありだよ!エントロピーが低い(パターンが予測しやすい)データほどよく圧縮できるんだ。ZIPファイルが小さくなるのは、元のデータに繰り返しパターンがあってエントロピーが低いから。シャノンはエントロピーが「これ以上圧縮できない理論限界」を決めることを証明したんだよ

ひよこ ひよこ

機械学習でも使うって聞いたけど?

ペンギン先生 ペンギン先生

決定木というアルゴリズムでは、データを分割するときにエントロピーが最も減る特徴を選ぶんだ。「情報利得」と呼ばれる手法だよ。また、暗号の世界ではパスワードのエントロピーが高いほど推測されにくい=安全ということになるんだね

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「情報エントロピー」って出てきたら「予測しにくさを数値にしたもの」と思えればだいたいOK!
📖 おまけ:英語の意味
「Information Entropy」 = 情報の乱雑さ・不確実さ
💬 クロード・シャノンが1948年に提唱した概念で、熱力学の「エントロピー(乱雑さ)」から名前を借りたんだよ
← 用語集にもどる