はじめての自己注意(Self-Attention)

AI体験・観察記録

1. 自己注意ってなに?

文章を書くAIは、単語の順番や文脈を理解する必要があります。

例えばこの文章:

「猫がネズミを追いかけた」

「猫」と「追いかけた」がつながっていることは分かりますよね。
でも、長い文章になると、どの単語がどの単語と関係しているかを見つけるのは大変です。

そこでAIは 自己注意(Self-Attention) という仕組みを使います。

ざっくり言うと:

文章の中で「今見ている単語」が、ほかの単語のどこに注目すればいいかを決める計算


2. 自己注意のイメージ

文章の中のある単語を中心に見てみます:

「昨日、そらねこは公園で猫と遊んだ」

もし「遊んだ」を予測するとき、
AIは「猫」と「そらねこ」が関係していることに注目する必要があります。

自己注意はこれを自動でやります:

遊んだ → 注目する単語: そらねこ, 猫

文章が長くても、どの単語を見ればいいかを計算してくれるんです。


3. 数字で見るとどうなるの?

自己注意では、各単語が他の単語にどれだけ注目するかを**重み(ウェイト)**として計算します。

例:5単語の文章

単語注目度(遊んだを見るとき)
昨日0.05
そらねこ0.4
0.05
公園0.1
0.4
  • 高い値ほど「注目している」
  • 「遊んだ」は「そらねこ」と「猫」に注目している

これがSelf-Attentionの重みです。


4. なぜ便利なのか?

自己注意の強みは以下の3点です:

  1. 長文でも関係を忘れない
    • 従来のRNNでは、長い文章だと前の単語を忘れてしまうことがあった
  2. 並列処理ができる
    • 全単語同時に計算できるので、処理が速い
  3. 重要な単語を見つけやすい
    • 「遊んだ」が「猫」と「そらねこ」を重視するように、関係の強さを自動で学習

5. AIの文章が自然に見える理由

文章が自然に見えるのは、自己注意のおかげです。

  • 「遊んだ」が「猫」とつながっている
  • 「彼女」がどの人を指すか分かる

こういう文脈理解が、確率分布と自己注意の組み合わせで実現しています。


6. 簡単まとめ

  • 自己注意 = 単語が他の単語にどれだけ注目するかを計算する方法
  • 長文でも関係を見失わず、重要な単語を重視できる
  • 確率分布と組み合わせて、AIは自然で一貫した文章を作る

次の記事へ

自己注意があるから、AIは文章の中の重要な関係を見失わずに次の単語を予測できます。

  • 前の記事:「はじめての確率分布」
  • 次の記事:「AIにプライドはあるのか」(人格錯覚の仕組み解説)

コメント

タイトルとURLをコピーしました