【バート】
BERT とは?
💡 文脈を前後から読み解く「AIの読解マスター」
📌 このページのポイント
双方向ってどういう意味?
例えば「銀行の___に行った」の空欄を埋めるとき、前の「銀行」だけでなく後ろの「行った」も手がかりにするよね。BERTは文章の前後両方を同時に見て理解するから、文脈の理解力がとても高いんだ。GPTは左→右の一方向だけだから、ここが大きな違いだよ。
マスク言語モデルって何?
文章中のいくつかの単語をランダムに隠して(マスクして)、その隠された単語を当てるクイズで学習する方法だよ。「今日は[MASK]が良い」という文を見て「天気」と予測する、みたいな感じ。この練習を大量にやることで文章の構造や意味を理解するんだ。
BERTはどういうタスクで使われるの?
BERTとGPTってどう違うの?
まとめ:ざっくりこれだけ覚えればOK!
「BERT」って出てきたら「文章を前後両方向から読んで文脈を深く理解する、自然言語処理の代表的モデルだな」と思えればだいたいOK!
📖 おまけ:英語の意味
「Bidirectional Encoder Representations from Transformers」 = Transformerによる双方向エンコーダー表現
💬 「Bidirectional(双方向の)」が最大の特徴。従来の左→右だけでなく右→左からも文脈を読む仕組みだよ