【いんこんてきすとがくしゅう】

インコンテキスト学習 とは?

💡 AIにカンペを見せながら解かせる「その場学習」
📌 このページのポイント
インコンテキスト学習(ICL) プロンプト(入力) 例1: "嬉しい" → ポジティブ 例2: "悲しい" → ネガティブ 例3: "最高" → ポジティブ 質問: "がっかり" → ??? LLM パターンを認識 追加学習なし → ネガティブ 正しく分類! 例を見せるだけで、モデルの重みを更新せずにタスクを実行できる Few-shot / Zero-shot / One-shot プロンプティング
インコンテキスト学習のイメージ
ひよこ ひよこ

インコンテキスト学習って普通の学習と何が違うの?

ペンギン先生 ペンギン先生

普通の機械学習はモデルに大量のデータを食べさせて「体質改善」するイメージ。インコンテキスト学習は、プロンプトに例を書いて「今回はこんな感じで答えてね」とお手本を見せるだけ。モデル自体は変わらないけど、その場で出力が変わるんだよ。

ひよこ ひよこ

例をたくさん入れたほうが精度は上がるの?

ペンギン先生 ペンギン先生

一般的には例が多いほど安定するけど、入れすぎるとトークン数を消費して入力の上限に引っかかることがある。3〜5個くらいの良質な例がちょうどいいバランスだと言われているよ。

ひよこ ひよこ

どんな例を選べばいいの?

ペンギン先生 ペンギン先生

ポイントは「多様性」と「代表性」だよ。似たような例ばかりだと偏るし、実際のタスクとかけ離れた例だと参考にならない。想定される入力パターンをバランスよくカバーする例を選ぶのがコツなんだ。

ひよこ ひよこ

ゼロショットとフューショットって何が違うの?

ペンギン先生 ペンギン先生

ゼロショットは例を一切入れずに指示だけで回答させること。フューショット(Few-shot)は数個の例を入れて回答の方向性を示すこと。ゼロショットでもGPT-4クラスのモデルなら高品質な回答が出ることが多いけど、特殊なフォーマットや専門的なタスクではフューショットの方が安定するよ。

ひよこ ひよこ

インコンテキスト学習が効く理由って科学的にわかっているの?

ペンギン先生 ペンギン先生

実はまだ完全には解明されていないんだ。有力な仮説は「事前学習で獲得した能力をプロンプトの例が"呼び起こす"」というもの。つまりモデルが新しいことを学んでいるのではなく、既に持っている能力のうち「今回使うべきもの」を特定している可能性が高い。この仕組みの解明はAI研究の最前線のテーマで、2024年以降も活発に論文が出ているよ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「インコンテキスト学習」って出てきたら「プロンプトに例を入れてAIにパターンを教えるテクニックのことだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「In-Context Learning」 = 文脈内学習
💬 Context(文脈)の中(In)で学習する、つまりプロンプトという文脈の中だけで学ぶことからこの名前がついたよ
← 用語集にもどる