【せつめいかのうなえーあい】
説明可能なAI(XAI) とは?
💡 ブラックボックスに窓をつけるAI技術
📌 このページのポイント
- AIがなぜその結論を出したのか、判断の根拠を人間にわかる形で提示する技術の総称
- LIME(局所的な近似モデル)やSHAP(特徴量の貢献度)などの代表的な手法がある
- 医療診断やローン審査など、判断理由の説明が求められる分野で特に重要視されている
- 精度の高いモデルほど複雑で説明が難しいという「精度と説明性のトレードオフ」が課題
説明可能なAIって、AIが自分で「こう判断しました」って教えてくれるの?
なんで説明が必要なの?AIが正しければいいんじゃ…
たとえば病院で「AIがガンの可能性ありと判断しました、理由は不明です」と言われたら不安だよね。医師もAIの根拠がわからなければ治療方針を決められない。説明できることが信頼の土台になるんだ
LIMEとかSHAPって何をしているの?
LIMEは入力データを少しずつ変えてAIの反応を観察し、どの要素が判断に効いているか推定する手法だよ。SHAPはゲーム理論のシャプレー値を使って、各特徴量がどれだけ結果に貢献したか数値で示すんだ
全部のAIを説明可能にできるの?
今後はもっと大事になりそう?
まとめ:ざっくりこれだけ覚えればOK!
「XAI」って出てきたら「AIの判断理由を人間にわかるように説明する技術」と思えればだいたいOK!
📖 おまけ:英語の意味
「Explainable Artificial Intelligence」 = 説明可能な人工知能
💬 略してXAIと呼ばれるよ。アメリカのDARPA(国防高等研究計画局)が2017年に研究プログラムを立ち上げたことで広まったんだ