【ちょうぶんみゃくえるえるえむ】
長文脈LLM とは?
💡 本1冊をまるごと読み込めるAI、コンテキストの壁を破壊する
📌 このページのポイント
長文脈LLMって、普通のLLMと何が違うの?
それってどのくらいの量なの?
100万トークンは日本語だと約50万文字くらいだね。長編小説1冊が10万文字くらいだから、5冊分の本を丸ごと入力できるイメージだよ
RAGがいらなくなるってこと?
長いとちゃんと全部理解してくれるのかな?
そこが重要なポイントだね。『Needle in a Haystack(干し草の中の針)』テストで、長い文章の途中に埋め込まれた情報を正しく見つけられるか評価するんだ。モデルによって得意不得意があるから、長さだけでなく理解の質も大事なんだよ
まとめ:ざっくりこれだけ覚えればOK!
「長文脈LLM」って出てきたら「超長い文章を一度に処理できるAI」と思えればだいたいOK!
📖 おまけ:英語の意味
「Long Context LLM」 = 長い文脈の大規模言語モデル
💬 context(文脈)が長い、つまり一度にたくさんの情報を処理できるLLMという意味だよ