【せつめいかのうえーあい】
説明可能AI(XAI) とは?
💡 AIの「考えた理由」を見える化する技術
📌 このページのポイント
- AIの判断過程を人間が理解・検証できるようにすることを目指す
- 医療・金融・法律など、判断根拠の説明が求められる分野で特に重要
- LIME、SHAPなど、モデルの判断理由を可視化するツールがある
- EUのAI規制では高リスクAIに説明可能性が求められている
なんでAIの説明が必要なの?答えが合ってればいいんじゃない?
たとえば病院でAIが「この患者はがんの可能性が高い」と判定したとき、医師は理由がわからないまま患者に告知できないよね。「なぜそう判断したか」がわからないと、医師も患者も信用できない。金融でもローン審査AIが「理由は不明だけど却下」では法的にも問題になるんだ。
どうやって説明させるの?
代表的な手法にSHAPやLIMEがあるよ。SHAPは「この特徴量がどれくらい判断に影響したか」を数値で示すんだ。たとえば住宅価格の予測で「築年数が-200万円、駅近が+300万円の影響」というように、各要素の貢献度がわかるようになるよ。
深層学習みたいな複雑なモデルでも説明できるの?
これが難しいところで、ディープラーニングは特に「ブラックボックス」と呼ばれるくらい内部が複雑なんだ。でもAttention(注目度)の可視化やGrad-CAMという技術で「画像のどこを見て判断したか」を示すことはできるようになってきているよ。完全な説明はまだ研究途上だけどね。
説明可能AIって法律で求められることもあるの?
EUのAI規制法(AI Act)では、高リスクAIシステムに対して透明性と説明責任を義務付けているよ。日本でも金融庁がAIを使った融資審査に説明根拠を求めるガイドラインを出している。「AIが判断しました」だけでは法的に通用しなくなってきているんだ。
精度と説明可能性ってトレードオフなの?
まとめ:ざっくりこれだけ覚えればOK!
「説明可能AI」って出てきたら「AIがなぜそう判断したかを人間にわかるように説明する技術のことだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Explainable AI(XAI)」 = 説明可能な人工知能
💬 Explainable(説明できる)とAIを組み合わせた言葉。DARPAが2017年にXAIプロジェクトを開始して広まったよ