【こんてきすとちょう】

コンテキスト長 とは?

💡 AIの「短期記憶の容量」、長いほどたくさん覚えていられる
📌 このページのポイント
コンテキスト長の比較 短いコンテキスト(4Kトークン) …✂ テキストが途中で 切れてしまう 数ページ分 長いコンテキスト(128Kトークン) 長文書を丸ごと 処理できる 書籍1冊分 トークン数 4K 32K 128K 1M 拡大傾向 コンテキスト長が大きいほど、一度に扱える情報量が増える
コンテキスト長 — モデルが一度に処理できるテキスト量の違い
ひよこ ひよこ

コンテキスト長って何?

ペンギン先生 ペンギン先生

AIが1回の会話で覚えていられるテキストの量のことだよ。トークンっていう単位で測るんだけど、たとえばコンテキスト長が128Kトークンなら、だいたい本1冊分くらいのテキストを一度に処理できるんだ。

ひよこ ひよこ

コンテキスト長を超えるとどうなるの?

ペンギン先生 ペンギン先生

古い会話の内容を忘れちゃうんだ。長いチャットをしていて「さっき言ったこと覚えてる?」って聞いても「知りません」って返ってくることがあるよね。あれはコンテキスト長を超えて情報が切り捨てられているからなんだよ。

ひよこ ひよこ

じゃあ長ければ長いほどいいの?

ペンギン先生 ペンギン先生

便利にはなるけど、コンテキストが長いほど処理に必要な計算量も増えるからコストが上がるし、応答も遅くなるんだ。だから「必要な情報だけを効率よく入れる」工夫も大事だよ。RAGっていう技術で関連情報だけを検索して渡す方法もあるんだ。

ひよこ ひよこ

コンテキスト長を超えるような長い文書を処理したいときはどうするの?

ペンギン先生 ペンギン先生

いくつかの戦略があるよ。文書を分割して要約を繰り返す「Map-Reduce方式」、関連部分だけを検索して入れる「RAG」、スライディングウィンドウで少しずつ処理する方法などだね。実はコンテキスト長が長くても「迷子問題(Lost in the Middle)」といって、文脈の中間部分の情報を見落としやすい傾向があるという研究もあるんだ。だから長ければいいというわけでもなく、重要な情報をコンテキストの先頭や末尾に配置する工夫も有効だよ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「コンテキスト長」って出てきたら「AIが一度に覚えていられるテキストの量」と思えればだいたいOK!
📖 おまけ:英語の意味
「Context Length」 = 文脈の長さ
💬 「Context(文脈・状況)」の「Length(長さ)」で、AIが一度に把握できる会話や文書の範囲のことだよ。人間でいうと「ワーキングメモリの容量」に近いイメージだね
← 用語集にもどる