MicrosoftがローカルAI実行環境「Foundry Local」を正式リリース — クラウド不要でAIが動く時代へ


Foundry Local — ローカルAI実行の仕組み 従来:クラウドAI ユーザーPC アプリ クラウド LLM API ● ネット必須 ● トークン課金 ● データ外部送信 ● レイテンシあり Foundry Local ユーザーPC アプリ LLM (Phi-4) ONNX Runtime GPU CPU NPU ✓ オフライン動作 ✓ 課金なし ✓ データ非送信
Foundry Local:クラウドAIとローカルAIの比較イメージ
ひよこ ひよこ

Microsoftが「Foundry Local」っていうのを正式リリースしたって聞いたけど、何なの?

ペンギン先生 ペンギン先生

ひとことで言うと、自分のパソコンの上でAIモデルを動かせるツールだよ。クラウドに接続しなくても、チャットAIや音声認識がローカルで使えるんだ。

ひよこ ひよこ

えっ、ChatGPTとかClaudeみたいなAIがネットなしで動くってこと?

ペンギン先生 ペンギン先生

厳密には同じモデルではなくて、MicrosoftPhi-4などオープンソースのLLMを使うんだ。でも仕組みは同じで、テキスト生成や質問応答ができるよ。しかもトークンごとの課金が発生しないのが大きいね。

ひよこ ひよこ

お金がかからないのは嬉しい!でも、パソコンで動かすには高性能なPCが必要なんじゃないの?

ペンギン先生 ペンギン先生

Foundry Localは内部でONNX Runtimeを使っていて、GPUCPUNPUを自動で切り替えてくれるんだ。もちろんGPUがあれば速いけど、CPUだけでも動くよ。WindowsMacLinuxの3プラットフォームに対応しているのもポイントだね。

ひよこ ひよこ

開発者じゃなくても使えるの?

ペンギン先生 ペンギン先生

基本的には開発者向けのツールで、PythonJavaScriptC#RustSDKが用意されているよ。たとえばデスクトップアプリにAI機能を組み込んだり、オフラインでも動く業務ツールを作ったりするのに使うイメージだね。

ひよこ ひよこ

なるほど!でもクラウドのAIサービスがあるのに、わざわざローカルで動かすメリットって何なの?

ペンギン先生 ペンギン先生

大きく3つあるよ。まずプライバシー。データが外部に送信されないから、医療や金融など機密データを扱う場面で安心だよね。次にコスト。API課金が不要だから、大量にAIを使うほど安くなる。最後にレイテンシネットワークを経由しないから応答が速いんだ。

ひよこ ひよこ

たしかに、病院のデータとかをクラウドに送るのは心配だもんね…。

ペンギン先生 ペンギン先生

そうだね。さらにFoundry Localはアプリのインストーラーにバンドルできるほどコンパクトに作られているんだ。つまり、ユーザーが特別な設定をしなくても、アプリを入れるだけでAI機能が使える。これは開発者にとってかなり画期的だよ。

ひよこ ひよこ

すごい!じゃあこれからはローカルAIが主流になるの?

ペンギン先生 ペンギン先生

クラウドAIがなくなるわけではなくて、使い分けの時代になると思うよ。高度な推論や最新の大規模モデルはクラウド、プライバシー重視やオフライン対応はローカル、という棲み分けだね。Microsoftも今後、リアルタイム音声文字起こしやRAG対応など機能拡張を予定しているから、ローカルAIの選択肢はどんどん広がっていくよ。

ひよこ ひよこ

クラウドとローカルの「いいとこ取り」ができる時代になるんだね!

ペンギン先生 ペンギン先生

そのとおり。AIを使うのに毎回インターネット接続が必要、という常識が変わり始めているんだ。自分のマシンでAIが動く世界は、もうすぐそこまで来ているよ。