【せるふこんしすてんしー】

Self-Consistency とは?

💡 答えに迷ったら何回も解いて多数決!AIの集合知戦略
📌 このページのポイント
Self-Consistency(自己整合性) 同じ問題 を複数回 サンプリング パス1: 5×2=10 → 3+10= 答え: 13 パス2: 3+5=8 → 8×2= 答え: 16 パス3: まず掛け算 5×2=10 → 答え: 13 パス4: 演算子優先で 5×2=10 → 答え: 13 多数決 13 → 3票 16 → 1票 正解: 13 異なる推論パスの回答を多数決で集約し、正答率を向上
Self-Consistencyのイメージ
ひよこ ひよこ

Self-Consistencyって、何回も同じ問題を解かせるってこと?

ペンギン先生 ペンギン先生

その通り!たとえば数学の問題を10回解かせると、それぞれ違う解き方をすることがあるよね。その10個の最終回答のうち、一番多い答えを正解として採用するんだ。テストで自信がないとき「もう一回解いてみよう」ってやるのと同じ発想だよ

ひよこ ひよこ

でも同じAIに聞いたら毎回同じ答えが返ってこない?

ペンギン先生 ペンギン先生

いい疑問だね。LLMにはtemperatureというパラメータがあって、これを上げると毎回少し違う回答を生成するようになるんだ。温度を上げることで多様な推論パスをサンプリングできるよ

ひよこ ひよこ

何回くらい解かせるのがいいの?

ペンギン先生 ペンギン先生

研究では5〜40回程度が使われているよ。回数を増やすほど精度は上がるけど、APIの呼び出し回数もその分増えるからコストとのバランスが大事だね。実用的には5〜10回でもかなり効果があるよ

ひよこ ひよこ

最近の推論モデルもこの考え方を使ってるの?

ペンギン先生 ペンギン先生

まさにそうだよ。OpenAIのo1モデルなどは、内部的に複数の推論パスを探索して最も整合性の高い回答を選んでいると考えられているんだ。Self-Consistencyの考え方がモデル自体に組み込まれた形だね。外部から何度もAPI呼び出しをしなくても、1回の推論で同等の効果が得られるようになったのは大きな進歩だよ

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「Self-Consistency」って出てきたら「同じ問題を何通りも解いて多数決で答えを決める方法」と思えばだいたいOK!
📖 おまけ:英語の意味
「Self-Consistency」 = 自己整合性
💬 複数の推論結果が互いに一致(Consistent)しているかを確認する手法だから、Self-Consistency(自己整合性)と呼ばれるよ
← 用語集にもどる