【バート】

BERT とは?

💡 文脈を前後から読み解く「AIの読解マスター」
📌 このページのポイント
BERT — 双方向コンテキスト理解 従来モデル(一方向) 私は 猫が ??? です ← 左側のみ参照 BERT(双方向) 私は 猫が [MASK] です ← 両方向から参照 → Masked Language Model(MLM) 文中の単語を隠し、周囲の文脈から予測する事前学習 BERTの活用例 文章分類 感情分析 質問応答 NER
BERTの双方向コンテキスト理解の仕組み
ひよこ ひよこ

双方向ってどういう意味?

ペンギン先生 ペンギン先生

例えば「銀行の___に行った」の空欄を埋めるとき、前の「銀行」だけでなく後ろの「行った」も手がかりにするよね。BERTは文章の前後両方を同時に見て理解するから、文脈の理解力がとても高いんだ。GPTは左→右の一方向だけだから、ここが大きな違いだよ。

ひよこ ひよこ
ペンギン先生 ペンギン先生

文章中のいくつかの単語をランダムに隠して(マスクして)、その隠された単語を当てるクイズで学習する方法だよ。「今日は[MASK]が良い」という文を見て「天気」と予測する、みたいな感じ。この練習を大量にやることで文章の構造や意味を理解するんだ。

ひよこ ひよこ

BERTはどういうタスクで使われるの?

ペンギン先生 ペンギン先生

文章を「理解」するタスクが得意だよ。例えばレビューがポジティブかネガティブかを判定する感情分析、質問に対して文書から答えを見つける質問応答、文書をカテゴリ分けする文書分類などだね。Google検索でも検索クエリの意図理解にBERTが使われていたことがあるよ。

ひよこ ひよこ

BERTとGPTってどう違うの?

ペンギン先生 ペンギン先生

大きな違いは「双方向か一方向か」だよ。BERTは文章の前後両方向から理解する(Bidirectional)から、文脈の把握が得意。GPTは左から右への一方向で、次の単語を予測する生成が得意。だからBERTは分類・検索・質問応答に強く、GPTは文章生成・対話に強いんだ。面白いのは、BERTの事前学習で使われる「マスク言語モデル(15%の単語を隠して当てる)」というアイデアが、後のAI研究にも大きな影響を与えたことだよ。

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「BERT」って出てきたら「文章を前後両方向から読んで文脈を深く理解する、自然言語処理の代表的モデルだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Bidirectional Encoder Representations from Transformers」 = Transformerによる双方向エンコーダー表現
💬 「Bidirectional(双方向の)」が最大の特徴。従来の左→右だけでなく右→左からも文脈を読む仕組みだよ
← 用語集にもどる