【えいちびーえむ】

HBM(広帯域メモリ) とは?

💡 メモリを「横」ではなく「縦」に積む発想
📌 このページのポイント
HBM vs 従来メモリ:積層構造の違い 従来のDRAM 基板(PCB) DRAMチップ (横に並べる) 帯域: 数十GB/s 配線が長い 消費電力: 大 HBM(広帯域メモリ) インターポーザ DRAM層 1 DRAM層 2 DRAM層 3 DRAM層 4 TSV(貫通電極) 帯域: 数百GB/s〜TB/s 垂直に積層で省スペース 消費電力: 小 AI/GPU向けに高帯域・省電力を実現する次世代メモリ
HBMのイメージ
ひよこ ひよこ

普通のメモリ(DDR5)と何が違うの?

ペンギン先生 ペンギン先生

DDR5はメモリチップを横に並べるけど、HBMはチップを縦に何層も積み重ねるんだ。12段重ねのHBM3eは帯域幅が1.2TB/s以上で、DDR5の約10倍の速度でデータを送れるよ

ひよこ ひよこ

なんでAIに必要なの?

ペンギン先生 ペンギン先生

AIの学習や推論では膨大なパラメータデータをGPUで処理するんだけど、メモリからGPUへのデータ転送が遅いと計算が止まってしまう。HBMはGPUのすぐ隣に配置して超高速でデータを供給するんだ

ひよこ ひよこ

半導体メーカーはどこが作ってるの?

ペンギン先生 ペンギン先生

SKハイニックスが圧倒的なシェアを持っていて、サムスンとマイクロンが追いかけている構図だよ。NVIDIAのH100やH200にはSKハイニックスのHBMが採用されていて、AI半導体のサプライチェーンで最も重要な部品の一つになっているんだ

ひよこ ひよこ

HBM4はどうなるの?

ペンギン先生 ペンギン先生

HBM4は帯域幅が3TB/sを超えると予想されていて、次世代GPUに搭載される予定だよ。製造コストが非常に高いのが課題だけど、AIの計算需要が増え続ける限りHBMの重要性は増していくだろうね

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「HBM」って出てきたら「AIのGPUに使われる超高速メモリ」と思えればだいたいOK!
📖 おまけ:英語の意味
「High Bandwidth Memory」 = 広帯域メモリ
💬 High Bandwidth(広帯域)なMemory。メモリチップを何層にも積み重ねて帯域幅を稼ぐ力技の技術だよ
← 用語集にもどる