AIが作った「嘘の判例」で弁護士が停職 — ハルシネーションの怖さをやさしく解説
ねえ、AIって嘘をつくことがあるって聞いたんだけど、本当なの?
あるよ。「ハルシネーション(幻覚)」って呼ばれる現象で、AIが存在しない情報をもっともらしく作り出してしまうんだよ。
でも最近、それで弁護士さんが停職になったって聞いて…それってどういうこと?
2026年5月に報道されたんだけど、ネブラスカ州の弁護士が裁判の書類にAIが生成した判例を63件引用したら、そのうち57件が存在しない判例だったんだよ。裁判所が確認したらどこにも見つからなくて、弁護士は停職処分を受けたんだ。
57件も!?AIって自信満々に嘘をつくの?
そうなんだよ。ハルシネーションの怖いところは、AIが「知らない」と言わずに、それらしい嘘を確信を持って答えてしまうこと。正しい情報と区別がつきにくいんだ。
じゃあどうして専門家の弁護士さんが気づかなかったの?
AIが生成した文章は形式がとても整っているんだ。判例番号、裁判所名、日付まで「本物っぽく」書いてくれるから、一見しただけでは偽物と気づきにくい。しかも2026年Q1だけで、米国の裁判所はAIの引用エラーで弁護士らに14万5000ドル以上の制裁金を科しているんだよ。
法律の世界だけじゃなくて、普通の人にも関係あるの?
もちろんだよ。たとえば医療情報をAIに聞いて信じたり、論文の引用をそのまま使ったり。「AIが言ったから正しい」と思いこむのが一番のリスクなんだ。
じゃあAIって使わない方がいいってこと?
そうじゃないよ。大切なのは「AIは優秀なアシスタントだけど、最終確認は人間がする」という使い方だよ。重要な情報は必ず一次ソースで裏取りする習慣をつけることが大事なんだ。
裏取りって難しくないの?
AIを使うのに「確認する力」が必要なんだね!
そうだよ。AIの普及で「情報の速さ」は劇的に上がったけど、「情報の正確さ」を担保する責任は人間に戻ってくるんだ。AIリテラシーの核心はそこにあると思うよ。
便利なツールだからこそ、使い方を間違えると大変なんだね…気をつけなきゃ!
うん。この弁護士の話は極端な例だけど、「AIを信じすぎない」という教訓は誰にでも当てはまるよ。使いこなすための第一歩は、疑う力を持つことなんだ。