【ばいあすばりあんすとれーどおふ】

バイアス・バリアンストレードオフ とは?

💡 偏りとばらつきの板挟みにある「AIのジレンマ」
📌 このページのポイント
バイアス・バリアンス トレードオフ 高バイアス ずれ大・ばらつき小 高バリアンス ずれ小・ばらつき大 ちょうど良い ずれ小・ばらつき小 モデルの複雑さを調整してバイアスとバリアンスのバランスを取ることが重要
3つの的で理解するバイアスとバリアンスの関係
ひよこ ひよこ

バイアスとバリアンスって具体的に何?

ペンギン先生 ペンギン先生

的を射るときに例えるとわかりやすいよ。バイアスが高いと的の中心からずっとずれた方向にまとまって当たる(偏り)。バリアンスが高いと的全体にバラバラに散らばる(ばらつき)。理想は中心にまとまって当たることだけど、それが難しいんだ。

ひよこ ひよこ

なんでトレードオフなの?

ペンギン先生 ペンギン先生

モデルを複雑にするとバイアスは減る(データの複雑なパターンを捉えられる)けど、バリアンスが増える(訓練データの些細な違いに敏感になる)。逆にモデルを単純にするとバリアンスは減るけどバイアスが増える。このシーソー関係がトレードオフだよ。

ひよこ ひよこ

ちょうどいいバランスはどうやって見つけるの?

ペンギン先生 ペンギン先生

交差検証(クロスバリデーション)が定番の方法だよ。データを分割して訓練とテストを繰り返し、モデルの複雑さを変えながらテスト精度が最も高くなるポイントを探す。学習曲線(訓練データ量と精度の関係グラフ)を描いて判断する方法もあるよ。

ひよこ ひよこ

実務でバイアスとバリアンスのどっちが問題になることが多いの?

ペンギン先生 ペンギン先生

ディープラーニング以前はオーバーフィッティング(高バリアンス)が悩みの種だったけど、現代の大規模ニューラルネットワークでは「二重降下(Double Descent)」という興味深い現象が発見されているんだ。モデルを巨大にしていくと、一度オーバーフィッティングした後にまた汎化性能が上がるんだよ。従来のバイアス・バリアンストレードオフの常識を覆す発見で、大規模モデルがなぜうまくいくのかの理解につながっているんだ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「バイアス・バリアンストレードオフ」って出てきたら「モデルの偏りとばらつきはシーソーの関係で、バランスが大事という概念だな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Bias-Variance Tradeoff」 = 偏り・分散のトレードオフ
💬 「Bias(偏り)」と「Variance(分散・ばらつき)」が「Tradeoff(二律背反)」の関係にあるという統計学の概念だよ
← 用語集にもどる