【てぃーぴーゆー】

TPU とは?

💡 AI専用に設計されたGoogleの「機械学習特化チップ」
📌 このページのポイント
TPU — AI・機械学習に特化したプロセッサ CPU 汎用プロセッサ コア コア コア 少数コア・高機能 何でもできる GPU 並列処理プロセッサ 多数コア・並列処理 画像・AI学習に強い TPU AI専用プロセッサ 行列演算ユニット(MXU) 行列演算に最適化 AI推論が超高速 AI学習速度 1x AI学習速度 10x AI学習速度 30x Google開発。行列演算に特化し、AIの学習・推論を高速化
TPU(AI専用プロセッサ)のイメージ
ひよこ ひよこ

TPUって何?GPUとどう違うの?

ペンギン先生 ペンギン先生

GPUはもとゲーム用で、汎用の並列計算に使われるんだけど、TPUはGoogleが「AIの計算だけのために」作ったチップだよ。用途を絞った分、AIの処理に限っては効率がいい。

ひよこ ひよこ

テンソルって何?

ペンギン先生 ペンギン先生

多次元の数値の配列のことだよ。ベクトル(1次元)、行列(2次元)、それ以上の次元を持つものをまとめてテンソルと呼ぶ。機械学習のデータや重みパラメータはほぼテンソルで表されるから、テンソル計算が速いTPUはAIに最適なんだ。

ひよこ ひよこ

GoogleはなんでGPUを使わずにTPUを作ったの?

ペンギン先生 ペンギン先生

AlphaGoの開発中に「このままだとGPUが足りなくなる」ってなったのがきっかけで、Googleが自社で作り始めたんだ。自分で作れば電力効率もコストも自分でコントロールできるからね。今はGeminiなどのAIもTPUで動かしてるよ。

ひよこ ひよこ

学習と推論で使うTPUが違うって聞いたけど?

ペンギン先生 ペンギン先生

そこは結構深い話でね、学習は大量のパラメータを何度も更新するから高精度の浮動小数点演算が必要なんだ。でも推論(学習済みモデルで予測する)は精度を少し下げた低ビット演算でも問題ないことが多い。TPUはこの推論フェーズの「量子化」された演算に最適化されてて、消費電力あたりの性能が上がる。学習用と推論用でTPUのアーキテクチャも世代によって変わってるよ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「TPU」って出てきたら「GoogleがAI専用に作った、行列計算が超得意なチップだな」と思えばだいたいOK!
📖 おまけ:英語の意味
「Tensor Processing Unit」 = テンソル処理ユニット
💬 Tensor(テンソル)は多次元配列のこと。機械学習の計算の核心が行列・テンソル演算のため、それに特化したユニットという名前になった
← 用語集にもどる