【エルエスティーエム】

LSTM とは?

💡 大事なことだけ覚えておく「AIの記憶術師」
📌 このページのポイント
LSTM:長短期記憶ネットワーク セル状態 C(t):長期記憶の通り道 h(t-1) 入力 x(t) 忘却ゲート f(t) = σ 何を忘れるか × 入力ゲート i(t) = σ × tanh 何を記憶するか + 出力ゲート o(t) = σ 何を出力するか × h(t) 出力 3つのゲートが協調して「覚える・忘れる・出力する」を制御 → 長期依存関係を学習 忘却ゲート 入力ゲート 出力ゲート セル状態 用途例:機械翻訳・感情分析・音楽生成
3つのゲートで長期記憶を制御するLSTMの仕組み
ひよこ ひよこ

ゲートって何をしてるの?

ペンギン先生 ペンギン先生

情報の「門番」だと思えばいいよ。忘却ゲートは「この記憶はもう不要だから忘れよう」、入力ゲートは「この新しい情報は覚えておこう」、出力ゲートは「今必要な情報はこれだ」と判断する。この仕組みで大事な情報を長く記憶し、不要な情報を捨てられるんだ。

ひよこ ひよこ

普通のRNNと具体的に何が違うの?

ペンギン先生 ペンギン先生

普通のRNNは全ての情報が一つの隠れ状態に混ぜ込まれるから、古い情報がどんどん薄まるんだ。LSTMにはセル状態という「情報のハイウェイ」があって、ゲートが許可すれば情報が劣化せずにずっと流れ続けられる。だから長い系列でも昔の情報を使えるんだよ。

ひよこ ひよこ

おもしろい!今はLSTMよりTransformerが主流なの?

ペンギン先生 ペンギン先生

自然言語処理画像認識ではTransformerが主流になったね。Transformerは系列全体を一度に並列処理できるから学習が速いんだ。でも時系列予測や音声処理など、逐次処理が自然なタスクではLSTMはまだ使われているよ。用途に応じて使い分けが大事だね。

ひよこ ひよこ

LSTMって今でも使われてるの?Transformerに完全に置き換えられた?

ペンギン先生 ペンギン先生

完全には置き換えられていないよ。時系列データ異常検知、センサーデータの予測、リアルタイムの音声処理など、逐次的にデータが入ってくる場面ではLSTMの方がメモリ効率が良い。Transformerは入力全体を一度に並列処理できるから学習が速いんだ。でも時系列予測や音声処理など、逐次処理が自然なタスクではLSTMはまだ使われているよ。

ひよこ ひよこ

GRUっていうのもあるって聞いたけど?

ペンギン先生 ペンギン先生

GRU(Gated Recurrent Unit)はLSTMを簡略化したモデルで、ゲートが3つから2つに減っている分、パラメータが少なくて学習が速い。多くのタスクでLSTMと同等の性能を出せるから、「まずGRUで試して、性能が足りなければLSTMに切り替える」というアプローチが実務的だよ。実はLSTM vs GRUの性能差は小さくて、タスクやデータによってどちらが勝つかは変わるんだ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「LSTM」って出てきたら「ゲートで情報の取捨選択をして長期記憶を保てるようにした、RNNの改良版だな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Long Short-Term Memory」 = 長短期記憶
💬 「Long(長期の)」「Short-Term Memory(短期記憶)」で、短期記憶を長く保持できるという意味。RNNが苦手だった長期記憶の問題を解決するよ
← 用語集にもどる