【えーあいすーぱーこんぴゅーた】

AIスーパーコンピュータ とは?

💡 AIの脳を鍛える、超巨大トレーニングジム
📌 このページのポイント
AIスーパーコンピュータの構造 GPUクラスタ(数千基) GPU GPU GPU GPU GPU GPU GPU GPU GPU GPU GPU GPU GPU GPU GPU ... × 数千ノード NVIDIA H100 / B200 高速ネットワーク InfiniBand / RoCE 大規模モデル学習 LLM(数千億パラメータ) マルチモーダルモデル 科学シミュレーション
AIスーパーコンピュータの構造イメージ
ひよこ ひよこ

普通のスパコンとAIスパコンって何が違うの?

ペンギン先生 ペンギン先生

従来のスパコンはCPUで気象予測や分子シミュレーションをするのが得意だけど、AIスパコンはGPUを数千台束ねてAIモデルの学習をするのに特化しているんだ。計算の種類が全然違うんだよ

ひよこ ひよこ

そんなにたくさんGPUが必要なの?

ペンギン先生 ペンギン先生

GPT-4クラスのモデルを学習するには数万台のGPUで数ヶ月かかるよ。MetaのLlama 3は16,000台のH100 GPUで学習されたと言われているんだ

ひよこ ひよこ

電気代すごそう…

ペンギン先生 ペンギン先生

そこが大きな課題だね。大規模AIスパコンの消費電力は原発1基分に迫ることもある。だから液冷技術や再生可能エネルギーの活用が必須になっているんだ

ひよこ ひよこ

おもしろい!日本にもAIスパコンはあるの?

ペンギン先生 ペンギン先生

産総研のABCIや理化学研究所の「富岳」のAI活用が進んでいるよ。さくらインターネットも国策としてGPUクラウド基盤を整備中だ。AI時代の国力はAIスパコンの計算力で決まると言っても過言ではないんだね

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「AIスーパーコンピュータ」って出てきたら「AI学習に特化した超高性能コンピュータ」と思えればだいたいOK!
📖 おまけ:英語の意味
「AI Supercomputer」 = AI超大型計算機
💬 従来のスパコンが数値計算の王様なら、AIスパコンはGPU演算の王様。AIモデルの訓練には桁違いの計算量が必要だよ
← 用語集にもどる