ローカルLLMってChatGPTを自分のPCで動かすってこと?
考え方はそうだね。ただしChatGPTの中身であるGPT-4は公開されていないから、LlamaやMistralといったオープンなモデルを自分のPCで動かすんだ。性能はGPT-4には及ばないけど、日常的な使い方なら十分実用的だよ
なんでわざわざ自分のPCで動かすの?
一番大きな理由はプライバシーだよ。クラウドのAIに送ったデータは外部サーバーを経由するけど、ローカルならすべてPC内で完結する。企業の機密文書や個人情報を扱うときには大きなメリットだね
すごく高いPCが必要なんじゃない?
昔はそうだったけど、量子化という技術でモデルを圧縮できるようになったんだ。たとえば7Bパラメータのモデルなら、16GBのメモリがあるノートPCでも動く。もちろんGPUがあると速くなるけど、最近のMacのM1チップ以降なら快適に動くよ
どんなツールを使えばいいの?
代表的なのはOllamaというコマンドラインツール、GUIで操作したいならLM Studio、ブラウザから使いたいならOpen WebUIだね。最近はこれらを組み合わせて「自分だけのAIスタック」を構築するのがエンジニアの間で流行っているよ