【てんいがくしゅう】

転移学習 とは?

💡 「他で学んだこと」を新しい分野に活かす学習法
📌 このページのポイント
転移学習(Transfer Learning) 事前学習済みモデル (大量データで学習済み) 入力層 隠れ層 1 隠れ層 2 隠れ層 3 出力層(1000クラス) 凍結(Freeze) 転移 ファインチューニング後 (タスク特化モデル) 入力層 隠れ層 1 隠れ層 2 隠れ層 3 新しい出力層(5クラス) ← 追加学習 メリット - 少量データでOK - 学習時間短縮 - 高精度 - 汎化性能向上 凍結層(再利用) 新規追加層(学習対象)
転移学習の仕組み
ひよこ ひよこ

転移学習って、なんで別のタスクの知識が使えるの?

ペンギン先生 ペンギン先生

深いところに共通する「特徴の捉え方」が活きるからなんだ。例えば大量の画像で学習したモデルは、「線・テクスチャ・形・物体」を段階的に認識する方法を身につけている。これは「犬の認識」でも「X線画像の分析」でも基本的に同じ能力が使えるんだよ。

ひよこ ひよこ

ファインチューニングと転移学習って違うの?

ペンギン先生 ペンギン先生

転移学習が「考え方・概念」で、ファインチューニングがその「実現方法の一つ」という関係だよ。転移学習をどう実装するかには、全パラメータを更新するファインチューニングのほか、前半の層を凍結して後半だけ学習する方法など、いくつかのアプローチがあるんだ。

ひよこ ひよこ

どんな分野で使われてるの?

ペンギン先生 ペンギン先生

画像認識なら、ImageNetという大規模データセットで学習したモデルをベースにすることが多い。自然言語処理なら、大量のテキストで学習した言語モデルを医療文書・法律文書向けに調整する。医療画像の診断AIもほぼすべて転移学習で作られているよ。

ひよこ ひよこ

どのくらい転送できるかって、どうやって決まるの?

ペンギン先生 ペンギン先生

「ドメインシフト」という概念が絡んでいて、これが難しいんだよ。元のタスクと新しいタスクが似ているほど転移しやすいけど、「似ている」の測り方が曖昧なんだ。例えば自然画像で学習したモデルを衛星写真に使うと、見た目は違うのに意外とうまく転移する一方、自然画像から漫画への転移はうまくいかないことがある。「なぜこのケースは転移しやすいか」を事前に正確に予測するのは研究者でも難しくて、試してみないと分からない部分が今でも多いんだよ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「転移学習」って出てきたら「他の分野で培った知識を新しい分野に応用する学習方法」と思えればだいたいOK!
📖 おまけ:英語の意味
「Transfer Learning」 = 転移学習
💬 Transferは「移す・転送する」という意味。学習した知識を別タスクに「転送(移転)」するイメージだよ
← 用語集にもどる