【あてんしょんきこう】
アテンション機構 とは?
💡 AIが「ここが重要!」と判断する注意の仕組み
📌 このページのポイント
- 入力の各要素が他のどの要素と強く関連しているかを計算する
- 文脈によって同じ単語への「注目度」が変わる動的な仕組み
- トランスフォーマーの中心的な技術要素
- 翻訳時に「どの入力単語に注目して次の出力単語を生成するか」を決める
アテンション機構って、どんな問題を解決するために生まれたの?
翻訳の課題から生まれたんだ。「彼女は市場で古い自転車と傘を売っている女性に会った」という文章を英語に訳すとき、「古い」が「自転車」だけにかかるのか「自転車と傘」両方にかかるのかを正しく判断する必要がある。離れた単語の関係を捉えるためにアテンションが考案されたんだよ。
具体的にどうやって「注目度」を計算するの?
Query・Key・Valueという三つの要素を使うんだ。Queryは「何を探しているか」、Keyは「各単語のラベル」、Valueは「実際の情報」。QueryとKeyの類似度を計算して注目度(ウェイト)を求め、それをValueに掛け合わせて出力を作る。図書館で「この本に関連するものを探して」と検索するイメージだよ。
マルチヘッドアテンションってよく聞くけど何が違うの?
アテンションを並行して複数回計算するんだ。「文法的な関係」「意味的な関係」「主語と目的語の関係」など、異なる種類の関係性を同時に複数の「ヘッド」で捉えて、最後に合わせるんだよ。複数の視点から関係性を見るから、一つのアテンションより豊かな表現が学べるんだ。
アテンションの計算量ってどのくらいかかるの?
まとめ:ざっくりこれだけ覚えればOK!
「アテンション機構」って出てきたら「AIが文章のどこに注目するかを計算する仕組み」と思えればだいたいOK!
📖 おまけ:英語の意味
「Attention Mechanism」 = 注意機構
💬 人間が文章を読むとき重要な部分に「注意(attention)」を集中させるのと同じ考え方からきているよ