AIが作った「嘘の判例」で弁護士が停職 — ハルシネーションの怖さをやさしく解説


AIハルシネーション:もっともらしい嘘の構造 生成AI (LLM) もっともらしい回答 (実在しない判例も含む) 形式・番号・日付まで整合 人間 信じる? ❌ 検証なしで提出 存在しない判例63件中57件 → 弁護士が停職処分に (2026年5月 ネブラスカ州) ✅ 一次ソースで裏取り 「参照元URLを教えて」と聞く → 検索・原典で確認する AIはあくまで補助ツール
AIハルシネーションによるリスクと正しい使い方のイメージ
ひよこ ひよこ

ねえ、AIって嘘をつくことがあるって聞いたんだけど、本当なの?

ペンギン先生 ペンギン先生

あるよ。「ハルシネーション(幻覚)」って呼ばれる現象で、AIが存在しない情報をもっともらしく作り出してしまうんだよ。

ひよこ ひよこ

でも最近、それで弁護士さんが停職になったって聞いて…それってどういうこと?

ペンギン先生 ペンギン先生

2026年5月に報道されたんだけど、ネブラスカ州の弁護士が裁判の書類にAIが生成した判例を63件引用したら、そのうち57件が存在しない判例だったんだよ。裁判所が確認したらどこにも見つからなくて、弁護士は停職処分を受けたんだ。

ひよこ ひよこ

57件も!?AIって自信満々に嘘をつくの?

ペンギン先生 ペンギン先生

そうなんだよ。ハルシネーションの怖いところは、AIが「知らない」と言わずに、それらしい嘘を確信を持って答えてしまうこと。正しい情報と区別がつきにくいんだ。

ひよこ ひよこ

じゃあどうして専門家の弁護士さんが気づかなかったの?

ペンギン先生 ペンギン先生

AIが生成した文章は形式がとても整っているんだ。判例番号、裁判所名、日付まで「本物っぽく」書いてくれるから、一見しただけでは偽物と気づきにくい。しかも2026年Q1だけで、米国の裁判所はAIの引用エラーで弁護士らに14万5000ドル以上の制裁金を科しているんだよ。

ひよこ ひよこ

法律の世界だけじゃなくて、普通の人にも関係あるの?

ペンギン先生 ペンギン先生

もちろんだよ。たとえば医療情報をAIに聞いて信じたり、論文の引用をそのまま使ったり。「AIが言ったから正しい」と思いこむのが一番のリスクなんだ。

ひよこ ひよこ

じゃあAIって使わない方がいいってこと?

ペンギン先生 ペンギン先生

そうじゃないよ。大切なのは「AIは優秀なアシスタントだけど、最終確認は人間がする」という使い方だよ。重要な情報は必ず一次ソースで裏取りする習慣をつけることが大事なんだ。

ひよこ ひよこ

裏取りって難しくないの?

ペンギン先生 ペンギン先生

AIにはむしろ「どこで確認できる?」「参照元のURLを教えて」と聞くクセをつけるといいよ。URLがあれば検索で確認できるし、AIが「URLはわかりません」と答えたら要注意サインだよ。

ひよこ ひよこ

AIを使うのに「確認する力」が必要なんだね!

ペンギン先生 ペンギン先生

そうだよ。AIの普及で「情報の速さ」は劇的に上がったけど、「情報の正確さ」を担保する責任は人間に戻ってくるんだ。AIリテラシーの核心はそこにあると思うよ。

ひよこ ひよこ

便利なツールだからこそ、使い方を間違えると大変なんだね…気をつけなきゃ!

ペンギン先生 ペンギン先生

うん。この弁護士の話は極端な例だけど、「AIを信じすぎない」という教訓は誰にでも当てはまるよ。使いこなすための第一歩は、疑う力を持つことなんだ。