【てきたいてきこうげき】
敵対的攻撃 とは?
💡 人間にはわからない小さなノイズで、AIの判断を狂わせる巧妙な攻撃
📌 このページのポイント
敵対的攻撃ってなんだか物騒な名前だね。何をする攻撃なの?
AIをだまして間違った判断をさせる攻撃のことだよ。たとえばパンダの画像にほんの少しだけノイズを加えると、人間にはパンダにしか見えないのに、AIは「テナガザルだ!」と誤認識してしまうんだ。
えっ、そんな少しの変化でAIはだまされちゃうの?
そうなんだ。AIはピクセル一つひとつの数値で判断しているから、人間が気づかないレベルの変化でも結果が大きく変わることがあるんだよ。これが敵対的攻撃の怖いところなんだ。
実際に悪用されたら大変じゃない?
そうだね。たとえば自動運転の車が道路標識を読み間違えたら事故につながるし、セキュリティカメラの顔認識をすり抜けることもできてしまう。だからAIの安全性研究では敵対的攻撃への対策がとても重要なテーマなんだよ。
対策はあるの?
敵対的訓練(Adversarial Training)といって、あらかじめノイズを加えたデータでAIを鍛える方法があるよ。攻撃パターンを事前に学ばせることで、だまされにくいAIを作れるんだ。いたちごっこではあるけど、研究は日々進んでいるよ。
まとめ:ざっくりこれだけ覚えればOK!
「敵対的攻撃」って出てきたら「見えないノイズでAIをだます攻撃」と思えればだいたいOK!
📖 おまけ:英語の意味
「Adversarial Attack」 = 敵対的な攻撃
💬 Adversarial(敵対的な)+ Attack(攻撃)。AIと「敵対」して、わざと間違えさせるように仕組まれた攻撃という意味なんだ