【でーたぽいずにんぐ】
データポイズニング とは?
💡 AIの「教科書」に毒を仕込んで、間違いを学ばせる攻撃
📌 このページのポイント
データポイズニングって怖い名前…。データに毒を入れるってどういうこと?
AIの訓練データにわざと間違った情報を混ぜる攻撃のことだよ。たとえば犬の画像に「猫」というラベルを大量に紛れ込ませると、AIは犬を見ても猫と判断するようになってしまうんだ。
でも訓練データって管理されてるんじゃないの?
大量のデータをインターネットから自動収集することが多いから、そこに悪意あるデータを紛れ込ませる余地があるんだ。何百万件もあるデータの中から汚染されたものを見つけるのはとても大変なんだよ。
敵対的攻撃とは何が違うの?
いい質問だね!敵対的攻撃はAIを使うとき(推論時)に入力データを細工するけど、データポイズニングはAIを作るとき(訓練時)にデータを汚染するんだ。つまり攻撃のタイミングが違うんだよ。
どうやって防げばいいの?
訓練データの品質チェックを徹底したり、異常なデータを自動検出する仕組みを入れたりするのが基本的な対策だよ。また、データの出所を追跡できるようにすることも重要なんだ。AI開発では「良いデータを集めること」が何より大切だということだね。
まとめ:ざっくりこれだけ覚えればOK!
「データポイズニング」って出てきたら「AIの訓練データに毒を入れて誤動作させる攻撃」と思えればだいたいOK!
📖 おまけ:英語の意味
「Data Poisoning」 = データの毒入れ
💬 Data(データ)+ Poisoning(毒を盛ること)。AIが学ぶ「教科書」に毒を仕込むというイメージから名付けられた攻撃手法なんだ