【ラベルスムージング】

ラベルスムージング とは?

💡 「絶対に正しい!」という断言を少しやわらげる、謙虚さの調整弁
📌 このページのポイント
ラベルスムージング:正解の過信を抑える スムージングなし ε = 0(ハードラベル) 猫 ✓ 1.0 0.0 0.0 0.0 「絶対に猫!」過信状態 スムージングあり ε = 0.1(ソフトラベル) 猫 ✓ 0.9 0.033 0.033 0.033 「たぶん猫」謙虚な予測 → 汎化 ソフトラベル = (1 − ε) × 正解クラス + ε / クラス数 × 各クラス ε=0.1・クラス4個の場合: 正解→0.9、他→0.1/3≒0.033
ラベルスムージング:正解ラベルを1.0→0.9に下げて他クラスにも少し分配
ひよこ ひよこ

ラベルスムージングって何をスムーズにするの?

ペンギン先生 ペンギン先生

正解ラベルの「自信度」を少しだけ下げるんだよ。通常は正解クラスの確率が1.0だけど、0.9とか0.95に設定して「確実に正解だけど、少し余裕を持たせる」わけだ。

ひよこ ひよこ

正解なのに確率を下げる必要があるの?

ペンギン先生 ペンギン先生

過信を防ぐためだよ。モデルが「この画像は絶対に猫だ!」と断言しすぎると、訓練データに特化しすぎて未知データに弱くなるんだ。少し謙虚にさせることで汎化が上がるんだよ。

ひよこ ひよこ

下げた0.1はどこに行くの?

ペンギン先生 ペンギン先生

他の全クラスに均等に分配されるんだよ。例えばクラスが10個なら、正解が0.9で残り9クラスが0.1÷9≒0.011ずつになるイメージだね。

ひよこ ひよこ

εって何のこと?

ペンギン先生 ペンギン先生

どれだけスムージングするかの係数だよ。ε=0.1が定番で、正解ラベルが1.0−0.1=0.9になるんだ。大きくしすぎると今度はモデルが自信を持てなくなるので、0.05〜0.2あたりがよく使われるよ。

ひよこ ひよこ

どんなモデルで使われているの?

ペンギン先生 ペンギン先生

画像認識のInception系、機械翻訳のTransformerなど分類タスクを持つモデルで広く採用されているよ。Vision Transformerの論文でも重要なテクニックとして紹介されているんだ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「ラベルスムージング」って出てきたら「正解の自信を少し抑えて過学習を防ぐ技術」と思えればだいたいOK!
📖 おまけ:英語の意味
「Label Smoothing」 = ラベル平滑化
💬 Label(ラベル)をSmoothing(平滑化)するという意味で、カクカクした「0か1か」のラベルを少しなだらかにするイメージから来ているんだよ。
← 用語集にもどる