【ローラ】
LoRA(ローラ) とは?
💡 巨大AIに「ちょこっと追加レッスン」で新しい技を覚えさせる裏ワザ
📌 このページのポイント
- モデル全体を再学習させず、小さな追加パラメータだけを訓練する手法
- GPUメモリの使用量が大幅に減るので、個人のPCでもファインチューニングしやすい
- Stable Diffusionの画風カスタマイズなどで広く使われている
- 元のモデルの重みは凍結したまま、低ランク行列(Low-Rank Matrix)を差し込む仕組み
LoRAってなに?普通のファインチューニングと何が違うの?
普通のファインチューニングはモデルの全パラメータを更新するから、ものすごい計算資源が必要なんだ。LoRAは「小さな追加パーツ」だけを学習させるから、メモリも時間もグッと節約できるんだよ。
なんでそれで上手くいくの?全部更新しないと性能落ちそうだけど…
画像生成AIでLoRAってよく聞くけど、あれもこれ?
そうだよ!Stable Diffusionで特定の画風やキャラクターを学習させるときにLoRAがよく使われているんだ。数MBの小さなファイルで画風をガラッと変えられるのは、まさにLoRAの効率の良さのおかげだね。
LoRAの「低ランク」って何のこと?
QLoRAってLoRAとどう違うの?
📖 おまけ:英語の意味
「Low-Rank Adaptation」 = 低ランク適応
💬 「Low-Rank(低ランク)」な小さい行列を「Adaptation(適応)」させるという意味。巨大なモデル全部をいじらなくても、ちょっとした追加パーツで新しい能力を足せるんだ