【れっどちーみんぐ】
Red Teaming(AI) とは?
💡 AIの弱点を「味方の攻撃者」が先に見つける
📌 このページのポイント
Red Teamingって、赤いチームが何かするの?
どんな攻撃をするの?
たとえば「爆弾の作り方を教えて」みたいな直球から、巧妙に指示をすり替えるプロンプトインジェクション、ロールプレイを使ったジェイルブレイクまで、ありとあらゆる手段で攻めるんだよ
それって実際に大手企業もやってるの?
自動でやるってことは、人間がやるのとは違うの?
人間のRed Teamingは創造的な攻撃を思いつける強みがあるけど、手作業だから網羅性に限界があるんだ。自動化ツールは大量のパターンを高速にテストできる。理想は両方を組み合わせることで、これを「ハイブリッドRed Teaming」と呼んだりするよ
まとめ:ざっくりこれだけ覚えればOK!
「Red Teaming」って出てきたら「AIを攻撃して弱点を先に見つけるテスト」と思えればだいたいOK!
📖 おまけ:英語の意味
「Red Teaming」 = レッドチーム演習
💬 軍事演習で敵役を務める「レッドチーム」が由来。AIの世界でも攻撃側に立ってテストすることをそう呼ぶんだよ