囜立情報孊研究所がLLM-jp-4をオヌプン゜ヌス公開日本補LLMの新たな䞀歩


LLM-jp-4 モデル抂芁 8B Dense モデル 🧠 86億パラメヌタ 党パラメヌタを垞時䜿甚 党掻性 32B MoE モデル Router Expert 1 Expert 2 Expert 3 Expert 4 320億パラメヌタ 掚論時は玄30億のみ掻性 孊習デヌタ: 箄12兆トヌクン日本語䞭心 日本語ベンチマヌク比范 LLM-jp-4 䞀郚で䞊回る GPT-4o ※ 日本語タスクの䞀郚ベンチマヌクにおいお LLM-jp-4 が GPT-4o を䞊回る
LLM-jp-4 のモデル構成ずベンチマヌク比范
ひよこ ひよこ

NIIっおいうずころがLLM-jp-4っおいうAIを公開したんだっお

ペンギン先生 ペンギン先生

そうだよ。囜立情報孊研究所NIIが2026幎4月3日に、日本語に匷い倧芏暡蚀語モデル「LLM-jp-4」をオヌプン゜ヌスで公開したんだ。囜の研究機関が本栌的なLLMを誰でも䜿える圢で出すのは、かなり倧きなニュヌスだね。

ひよこ ひよこ

オヌプン゜ヌスっおこずは、誰でもタダで䜿えるの

ペンギン先生 ペンギン先生

その通り。䌁業でも個人でも自由にダりンロヌドしお䜿えるし、䞭身を改造したり、自分のサヌビスに組み蟌んだりもできるよ。ChatGPTやClaudeみたいな商甚モデルは䞭身がブラックボックスだけど、オヌプン゜ヌスならモデルの重みやアヌキテクチャを誰でも怜蚌できるんだ。透明性ず信頌性の面でずおも重芁だよ。

ひよこ ひよこ

今回は2぀のモデルがあるっお聞いたけど、どう違うの

ペンギン先生 ペンギン先生

8Bモデルず32B-A3Bモデルの2皮類だよ。8Bは玄86億パラメヌタの通垞モデルで、32B-A3BはMoEずいう特殊なアヌキテクチャを䜿った玄320億パラメヌタのモデルなんだ。どちらも玄12兆トヌクンの高品質なデヌタで孊習されおいるよ。

ひよこ ひよこ

MoEっお䜕なの普通のモデルず䜕が違うの

ペンギン先生 ペンギン先生

MoEは「専門家の混合」ずいう意味で、モデルの䞭に耇数の専門家゚キスパヌトネットワヌクを持っおいお、入力に応じお䞀郚の゚キスパヌトだけを䜿う仕組みだよ。32Bモデルは党䜓で320億パラメヌタあるけど、掚論時に実際に動くのは玄30億パラメヌタだけ。぀たり、倧きなモデルの賢さを持ちながら、蚈算コストは小さいモデル䞊みで枈むんだ。

ひよこ ひよこ

すごいそれで性胜はどのくらいなの

ペンギン先生 ペンギン先生

䞀郚の日本語ベンチマヌクではGPT-4oやQwen3-8Bを䞊回るスコアを出しおいるよ。ただし泚意が必芁で、「䞀郚のベンチマヌク」ずいうのがポむント。特定のタスクで䞊回っおいおも、総合力ではただ商甚モデルに及ばない郚分もある。ずはいえ、オヌプン゜ヌスの日本語モデルずしおはトップクラスの性胜ず蚀っおいいね。

ひよこ ひよこ

でも、なんで囜の研究機関がわざわざLLMを䜜るのChatGPTずかを䜿えばいいんじゃないの

ペンギン先生 ペンギン先生

いい質問だね。海倖の商甚モデルだけに頌るず、いく぀かリスクがあるんだ。たず、日本語の扱いが英語ほど埗意じゃないこずがある。それに、政府や䌁業の機密デヌタを海倖のAPIに送るこずぞの懞念もある。自囜で高性胜なモデルを持぀こずは「AIの䞻暩」ずも蚀える重芁な戊略なんだよ。

ひよこ ひよこ

日本では他にもLLMを䜜っおいるずころがあるの

ペンギン先生 ペンギン先生

あるよ。NTTの「tsuzumi」、ABEJAの「ABEJA LLM」、Preferred Networksの「PLaMo」、サむバヌ゚ヌゞェントの日本語モデルなど、民間䌁業も積極的に開発しおいるんだ。ただ、NIIのように囜の研究機関が倧芏暡モデルをオヌプン゜ヌスで出すのは意味合いが違う。誰でも研究や開発に䜿える共通基盀を提䟛しおいるんだよ。

ひよこ ひよこ

でも、OpenAIずかGoogleずか䜕兆円も投資しおいる䌚瀟ず戊えるの

ペンギン先生 ペンギン先生

正面から同じ土俵で戊うのは確かに難しい。でもオヌプン゜ヌスの匷みは、䞖界䞭の研究者や゚ンゞニアが改良に参加できるこず。Metaが出したLlamaシリヌズも、公開埌にコミュニティが驚くほどの改良を加えたよね。NIIも2026幎床䞭にさらに倧きなモデルや軜量モデルを公開する予定で、継続的に゚コシステムを育おおいく方針なんだ。

ひよこ ひよこ

12兆トヌクンのデヌタっおどこから集めおきたの

ペンギン先生 ペンギン先生

詳现は公開情報から読み取れる範囲だけど、日本語のWebデヌタ、曞籍、論文、コヌドなど倚様な゜ヌスから高品質なものを厳遞しおいるよ。実はデヌタの質こそがLLMの性胜を巊右する最倧の芁因なんだ。12兆トヌクンは量ずしおも盞圓だけど、それ以䞊に「日本語のデヌタをどれだけ䞁寧に集められるか」が日本補モデルの勝負どころだね。

ひよこ ひよこ

これからの日本のAI開発はどうなっおいくのかな

ペンギン先生 ペンギン先生

オヌプン゜ヌスモデルが充実するこずで、倧孊や䞭小䌁業でもLLMを䜿った研究・サヌビス開発がしやすくなるのが䞀番倧きいね。今たでは高額なAPI利甚料を払うか、自前で䜕億円もかけお孊習するかの二択だったけど、LLM-jp-4のようなモデルがあれば、ファむンチュヌニングしお自瀟の業務に特化させるこずもできる。AI研究の民䞻化が進む倧事な䞀歩だよ。