【えぽっく】

エポック とは?

💡 教科書を最初から最後まで1回読むこと
📌 このページのポイント
エポック(学習の繰り返し単位) 訓練データ 全1000件 Epoch 1 全件学習 Epoch 2 全件学習 Epoch 3 全件学習 N 完了 損失の推移 高い 低い Epoch 1 Epoch 2 Epoch 3 Epoch 4 Epoch 5 損失が徐々に減少 →
エポックのイメージ
ひよこ ひよこ

エポックって何回繰り返せばいいの?

ペンギン先生 ペンギン先生

決まった正解はなくて、モデルの複雑さとデータ量によるんだ。小さなデータで単純なモデルなら10〜100エポック、深いニューラルネットワークで大量データなら数エポックで十分なこともある。「検証データの損失が下がらなくなったとき」が目安だよ。

ひよこ ひよこ

100エポック学習したら100エポック分だけ賢くなるってこと?

ペンギン先生 ペンギン先生

最初のうちはどんどん賢くなるけど、ある時点から「訓練データのノイズまで覚え始める」過学習が起きて、むしろ悪化することがあるんだよ。グラフで見ると訓練損失は下がり続けるのに検証損失が途中から上がり始める曲線になる。

ひよこ ひよこ

「アーリーストッピング」ってどんな仕組み?

ペンギン先生 ペンギン先生

「検証損失が一定エポック以上改善しなくなったら学習をやめる」という仕組みだよ。ムダなエポックを省けるし、過学習も防げる。パラメーターは「最も検証損失が低かった時点」に戻すのがポイントで、最後まで学習したモデルではなく途中の最良モデルを使うんだ。

ひよこ ひよこ

おもしろい!同じデータを何度も見せると記憶してしまうんじゃないの?

ペンギン先生 ペンギン先生

それが本質的な疑問で、「汎化」と「記憶」のトレードオフがエポック数の核心にあるんだ。ニューラルネットワークは理論上、十分な容量があれば訓練データを丸ごと記憶できる。だから多エポック学習は「暗記試験」になりやすい。面白いことに最近の研究で「二重降下現象」が発見されていて、エポックやパラメーターを増やしたとき損失が一度上がってからまた下がるという直感に反する現象がある。「エポック数を増やすと必ず悪化する」という常識が崩れるケースで、深層学習の理論はまだ完全には解明されていないんだよ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「エポック」って出てきたら「訓練データを全部1回使い切る学習の1ラウンドのことだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Epoch」 = 時代・時期・区切り
💬 天文学では「基準時刻」を指す言葉。機械学習では「一区切りの学習サイクル」として使われているよ
← 用語集にもどる