【エムエルエックス】

MLX とは?

💡 Macで機械学習、Appleの本気フレームワーク
📌 このページのポイント
MLX — Apple Siliconのユニファイドメモリ活用 従来(NVIDIA GPU) CPUメモリ (RAM) GPUメモリ (VRAM) データ転送が必要(遅い) Apple Silicon + MLX CPU GPU 同じメモリを共有(高速) MLXの特徴 NumPy風API 馴染みやすい インターフェース 遅延評価 必要な計算だけ 効率的に実行 mlx-lm LLM推論・ ファインチューニング オープンソース Apple公式で GitHub公開
MLXのユニファイドメモリ活用のイメージ
ひよこ ひよこ

MLXってPyTorchとは何が違うの?

ペンギン先生 ペンギン先生

PyTorchは汎用的だけど、MLXはApple Silicon専用に設計されているよ。最大の特徴はユニファイドメモリの活用で、CPUGPUが同じメモリを共有しているから、データのコピーが不要なんだ。これがMacでの処理を速くしている秘密だよ

ひよこ ひよこ

MacでAIをやる人って多いの?

ペンギン先生 ペンギン先生

M1チップ以降のMac機械学習の性能がかなり高くて、特にメモリが大きいモデル(M2 Ultraなら192GBまで)を動かせるのが強みだよ。NVIDIA GPUの高価なマシンを買わなくても、手持ちのMacBookでLLMを動かせる時代になったんだ

ひよこ ひよこ

使い方は難しいの?

ペンギン先生 ペンギン先生

pipインストールできて、コードはNumPyにそっくりだから学習コストは低いよ。mlx-lmというツールを使えば、コマンド一つでHugging FaceからモデルをダウンロードしてMac上で推論やファインチューニングができるんだ

ひよこ ひよこ

おもしろい!Appleはなぜ今になってMLフレームワークを出したの?

ペンギン先生 ペンギン先生

実はAppleはCoreMLという推論用フレームワークを以前から持っていたけど、研究者向けの柔軟なフレームワークがなかったんだ。LLMブームでMacでモデルを動かしたいニーズが急増して、Apple Siliconの性能を最大限引き出すMLXが2023年末に登場したよ。オープンソースで公開されていて、コミュニティも活発に成長しているんだ

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「MLX」って出てきたら「Apple SiliconのMacに最適化されたML フレームワーク」と思えればだいたいOK!
📖 おまけ:英語の意味
「MLX (Machine Learning eXploration)」 = 機械学習探索
💬 Appleの機械学習研究チームが探索(eXploration)目的で開発を始めたフレームワークだよ
← 用語集にもどる