Ollamaで使えるモデル比較2026年版 — Llama・Gemma・Mistral・Qwenを徹底解説
Ollamaで使える主要LLMモデルの比較(2026年4月版)
ひよこ
ペンギン先生 わかるよ〜!Ollamaのライブラリには100種類以上のモデルがあるからね。まず「自分は何のためにLLMを使いたいか」を決めると絞りやすくなるよ。
ひよこ
ペンギン先生 3つのポイントを見るといいよ。①パラメータ数(モデルの大きさ)、②使う言語(日本語対応してるか)、③用途(会話・コーディング・要約など)。この3つを組み合わせて選ぶんだ。
ひよこ パラメータ数って何なの?「7B」とか「70B」ってよく見るけど…
ペンギン先生 Bは「Billion(10億)」のことで、モデルの重みパラメータの数を表してるよ。7Bなら70億個のパラメータってこと。大きいほど賢いけど、必要なRAMも増えるんだ。目安はこんな感じ: 3B→RAM4GB以上、7B/8B→RAM8GB以上、14B→RAM16GB以上、70B→RAM64GB以上だよ。
ひよこ じゃあRAMが少ないPCだと大きいモデルは動かないんだね…。Llama 3っていうのはよく聞くけど、どんなモデルなの?
ペンギン先生 Llama 3はMeta(Facebookの親会社)が作ったオープンソースのモデルだよ。バージョンが3.1・3.2・3.3とあって、Llama 3.1は8Bと70Bの2サイズ展開で汎用性が高い。3.2は軽量化した1B・3Bも登場して、スマホや低スペックPCでも動くようになったんだ。3.3は70Bの性能をさらに引き上げた最上位モデルだよ。
ひよこ
ペンギン先生
ひよこ Mistralってのも聞いたことある!フランスの会社だよね?
ペンギン先生 そうそう、フランスのスタートアップMistral AIのモデルだよ。Mistral 7Bはコンパクトなのにかなり賢くて、昔から人気があるんだ。上位版のMixtralはMoEという仕組みで、8つの7Bモデルを使い分けて実質45Bクラスの性能を出してるよ。効率重視なら最高の選択肢だね。
ひよこ
ペンギン先生 Qwen 2.5はAlibabaが作ったモデルで、多言語対応がとにかく強いんだ。特に日本語・中国語・韓国語などアジア系言語の精度が高くて、Llama 3より日本語の文章が自然なことも多いよ。0.5B〜72Bまで超細かいサイズ展開も魅力だね。
ひよこ
ペンギン先生 あるよ!コーディング特化モデルの代表は「Qwen2.5-Coder」と「Codellama」だね。Qwen2.5-Coderは一般コーディングタスクで非常に高評価で、7Bでも商用GPT-4並みのコード補完ができることがある。CodellamaはMeta製でPython・Java・JavaScriptに強いよ。コードを書く用途なら汎用モデルより断然こっちだね。
ひよこ 日本語をメインに使いたい場合は、どのモデルがいいの?
ペンギン先生 日本語優先なら、まずQwen 2.5を試してみてほしいな。次にELYZA(日本語特化でLlamaベース)も有名だよ。Gemma 3も日本語対応が改善されてきてる。「ollama pull elyza:jp8b」みたいにコマンドを打つだけで使えるから、気軽に試せるよ。
ひよこ M1/M2のMacを持ってるんだけど、おすすめのモデルってある?
ペンギン先生
ひよこ
ペンギン先生 CPUのみでのRAM別目安はこんな感じだよ。RAM8GB→3B〜7Bモデルが限界(速度は遅め)。RAM16GB→8B〜14Bモデルが実用的に動く。RAM32GB→30B前後も試せる。ただしCPUだと70Bは現実的じゃない。まずはGemma 3の2Bや4Bから試してみるといいよ!
ひよこ 実際にモデルを入れるときってどうやるの?コマンドが難しそう…
ペンギン先生 全然難しくないよ!ターミナルで「ollama pull モデル名」を打つだけ。例えばGemma 3の4Bなら「ollama pull gemma3:4b」、Qwen2.5の7Bなら「ollama pull qwen2.5:7b」だね。ダウンロード後は「ollama run gemma3:4b」で即チャットが始まるよ。
ひよこ モデルの賢さって数字で比較できるの?ベンチマークって聞いたことある!
ペンギン先生 そうだよ!よく使われるのはMMLU(一般知識テスト)とHumanEval(コーディングテスト)だね。2026年時点の7B〜8Bクラスだと、Gemma 3の4Bがコンパクトながら高スコアで話題になってる。ただしベンチマークが全てじゃなくて、実際に使ってみた使い心地も大事だよ。
ひよこ 用途別でズバリ「これ使え!」ってモデルを教えてほしい!
ペンギン先生 じゃあズバリ言うよ!普通の会話・質問応答→Gemma 3の4Bか12B。コーディング補助→Qwen2.5-Coderの7B。日本語重視→Qwen 2.5の7Bかelyza:jp8b。軽量で手軽に試したい→Gemma 3の2Bか4B。高品質を求める(RAMに余裕あり)→Llama 3.3の70BかQwen2.5の32Bだよ。
ひよこ 2026年って新しいモデルがどんどん出てきてるよね?最新トレンドはどうなってるの?
ペンギン先生 2026年は「小型モデルの大躍進」の時代だよ!GPT-4に匹敵する4B〜8Bモデルが続々と登場してて、ローカルで動かすハードルがどんどん下がってる。また、ビジョン対応(画像を理解できる)モデルもOllamaで動くようになってきた。Gemma 3やLlama 3.2はテキストだけじゃなく画像も扱えるから、「ローカルGPT-4V」として注目されてるんだ。
ひよこ すごい!ローカルでここまでできる時代なんだね。まずGemma 3の4Bから試してみようかな!
ペンギン先生 それがベストな入門だと思うよ!「ollama pull gemma3:4b」でダウンロードして「ollama run gemma3:4b」で起動すれば5分で使い始められるよ。慣れてきたらQwen2.5-Coderでコーディング補助も試してみてね。自分のPCでLLMが動く感動、ぜひ味わってほしいな!