【アールエヌエヌ】
RNN とは?
💡 過去の記憶を引き継ぎながら読む「AIの読書家」
📌 このページのポイント
- 正式名称は「Recurrent Neural Network(再帰型ニューラルネットワーク)」
- 出力を次のステップの入力にフィードバックする再帰構造で時系列を処理する
- 文章・音声・株価など順序に意味があるデータの処理に向いている
- 長い系列では勾配消失問題が発生しやすく、LSTMやGRUで改良された
再帰ってどういう意味?
普通のニューラルネットワークはデータが入口から出口へ一方通行だけど、RNNは出力の一部を次のステップの入力に「戻す」んだ。「私は猫が」の次を予測するとき、「私は」「猫が」という前の情報を記憶として持ち越しながら処理するイメージだよ。
勾配消失問題って何?
今でもRNNは使われてるの?
LSTMとGRUって何が違うの?
Transformerが出てきたのにRNNを学ぶ意味ってあるの?
大いにあるよ。まずTransformerの仕組みを理解するにはRNNの限界を知ることが前提になる。それに最近「State Space Models」や「Mamba」というRNNの発展形が登場して、Transformerに匹敵する性能を低い計算コストで実現する研究が注目されているんだ。RNNの考え方は形を変えて生き続けているよ。
まとめ:ざっくりこれだけ覚えればOK!
「RNN」って出てきたら「前の情報を記憶しながら順番にデータを処理する、時系列向けのニューラルネットワークだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Recurrent Neural Network」 = 再帰型ニューラルネットワーク
💬 「Recurrent(再帰的な・繰り返す)」が名前のポイント。出力が再びネットワークに戻って入力される循環構造を持つことから名付けられたよ