【せるふこんしすてんしー】
Self-Consistency とは?
💡 答えに迷ったら何回も解いて多数決!AIの集合知戦略
📌 このページのポイント
- 1つの問題に対して複数の異なる推論パス(解き方)をサンプリングする
- 各推論パスの最終回答を集めて、最も多い回答を多数決で選ぶ
- 単一のCoTよりも安定して高い正答率を実現する
- サンプル数を増やすほど精度が上がるが、APIコストも比例して増加する
Self-Consistencyって、何回も同じ問題を解かせるってこと?
その通り!たとえば数学の問題を10回解かせると、それぞれ違う解き方をすることがあるよね。その10個の最終回答のうち、一番多い答えを正解として採用するんだ。テストで自信がないとき「もう一回解いてみよう」ってやるのと同じ発想だよ
でも同じAIに聞いたら毎回同じ答えが返ってこない?
いい疑問だね。LLMにはtemperatureというパラメータがあって、これを上げると毎回少し違う回答を生成するようになるんだ。温度を上げることで多様な推論パスをサンプリングできるよ
何回くらい解かせるのがいいの?
研究では5〜40回程度が使われているよ。回数を増やすほど精度は上がるけど、APIの呼び出し回数もその分増えるからコストとのバランスが大事だね。実用的には5〜10回でもかなり効果があるよ
最近の推論モデルもこの考え方を使ってるの?
まとめ:ざっくりこれだけ覚えればOK!
「Self-Consistency」って出てきたら「同じ問題を何通りも解いて多数決で答えを決める方法」と思えばだいたいOK!
📖 おまけ:英語の意味
「Self-Consistency」 = 自己整合性
💬 複数の推論結果が互いに一致(Consistent)しているかを確認する手法だから、Self-Consistency(自己整合性)と呼ばれるよ