【せつめいかのうえーあい】

説明可能AI(XAI) とは?

💡 AIの「考えた理由」を見える化する技術
📌 このページのポイント
説明可能AI(XAI)vs ブラックボックスAI ブラックボックスAI 入力データ AI ??? 結果 「なぜその判断?」 → 説明できない 医療・金融で問題に... 説明可能AI(XAI) 入力データ XAI 透明 結果 判断根拠を提示 ・特徴量の寄与度(SHAP) ・注目領域の可視化(Grad-CAM) ・ルールの明示(決定木) VS XAIが求められる分野: 医療診断 / ローン審査 / 自動運転 / 採用選考
説明可能AIのイメージ
ひよこ ひよこ

なんでAIの説明が必要なの?答えが合ってればいいんじゃない?

ペンギン先生 ペンギン先生

たとえば病院でAIが「この患者はがんの可能性が高い」と判定したとき、医師は理由がわからないまま患者に告知できないよね。「なぜそう判断したか」がわからないと、医師も患者も信用できない。金融でもローン審査AIが「理由は不明だけど却下」では法的にも問題になるんだ。

ひよこ ひよこ

どうやって説明させるの?

ペンギン先生 ペンギン先生

代表的な手法にSHAPやLIMEがあるよ。SHAPは「この特徴量がどれくらい判断に影響したか」を数値で示すんだ。たとえば住宅価格の予測で「築年数が-200万円、駅近が+300万円の影響」というように、各要素の貢献度がわかるようになるよ。

ひよこ ひよこ

深層学習みたいな複雑なモデルでも説明できるの?

ペンギン先生 ペンギン先生

これが難しいところで、ディープラーニングは特に「ブラックボックス」と呼ばれるくらい内部が複雑なんだ。でもAttention(注目度)の可視化やGrad-CAMという技術で「画像のどこを見て判断したか」を示すことはできるようになってきているよ。完全な説明はまだ研究途上だけどね。

ひよこ ひよこ

説明可能AIって法律で求められることもあるの?

ペンギン先生 ペンギン先生

EUのAI規制法(AI Act)では、高リスクAIシステムに対して透明性と説明責任を義務付けているよ。日本でも金融庁がAIを使った融資審査に説明根拠を求めるガイドラインを出している。「AIが判断しました」だけでは法的に通用しなくなってきているんだ。

ひよこ ひよこ

精度と説明可能性ってトレードオフなの?

ペンギン先生 ペンギン先生

一般的にはそうだけど、工夫次第で両立できるケースも増えているよ。決定木ルールベースは説明しやすいけど精度は限定的。ディープラーニングは高精度だけど説明が難しい。最近は「精度は高いモデルを使い、SHAPで事後的に説明を付ける」というアプローチが実務では主流になってきているんだ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「説明可能AI」って出てきたら「AIがなぜそう判断したかを人間にわかるように説明する技術のことだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Explainable AI(XAI)」 = 説明可能な人工知能
💬 Explainable(説明できる)とAIを組み合わせた言葉。DARPAが2017年にXAIプロジェクトを開始して広まったよ
← 用語集にもどる