【まえむえるえむ】

MLM(マスク言語モデル) とは?

💡 穴あき問題でAIの読解力を鍛える特訓法
📌 このページのポイント
マスク言語モデル(MLM)の学習 元の文: 今日は 天気が 良い ので 散歩する 15%をランダムにマスク 入力: 今日は 天気が [MASK] ので 散歩する BERT(双方向エンコーダ) 左右両方の文脈を同時に参照 予測:「良い」 正解! マスク戦略 80% → [MASK] 10% → ランダム 10% → そのまま 過学習を防ぐ工夫
MLM:マスクされた単語を文脈から予測する学習
ひよこ ひよこ

マスク言語モデルって何?マスクをかけるの?

ペンギン先生 ペンギン先生

その通り!文章の中の一部の単語を[MASK]という特別なトークンで隠して、AIに「ここに何が入る?」と当てさせる学習方法だよ。学校のテストの穴埋め問題みたいなものだね

ひよこ ひよこ

なんでわざわざ隠すの?

ペンギン先生 ペンギン先生

隠された単語を当てるためには、前後の文脈をしっかり理解する必要があるよね。これによってAIは文章の意味を深く理解できるようになるんだ。BERTはこの方法で学習したから、文章の意味理解がとても得意になったんだよ

ひよこ ひよこ

GPTとはどう違うの?

ペンギン先生 ペンギン先生

GPTは文章を左から右に順番に予測する「自己回帰」方式なんだ。一方MLMは隠した部分の左右両方の文脈を同時に使える「双方向」方式。だからBERTは文の意味を理解するタスクが得意で、GPTは文章を生成するタスクが得意、という違いが生まれるんだよ

ひよこ ひよこ

全部の単語を隠して学習しないの?

ペンギン先生 ペンギン先生

いい質問だね。実は入力の約15%だけをランダムに選んでマスクするんだ。しかもそのうち80%を[MASK]に、10%をランダムな単語に、残り10%はそのままにするという工夫がある。こうすることで実際の使用時との差を小さくして、よりロバストなモデルになるんだよ

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「MLM」って出てきたら「文の一部を隠して当てさせるBERTの学習法」と思えればだいたいOK!
📖 おまけ:英語の意味
「Masked Language Model」 = マスクされた言語モデル
💬 maskは仮面や覆い隠すという意味で、単語を隠して(マスクして)予測させるからこの名前だよ
← 用語集にもどる