1. 自己注意ってなに?
文章を書くAIは、単語の順番や文脈を理解する必要があります。
例えばこの文章:
「猫がネズミを追いかけた」
「猫」と「追いかけた」がつながっていることは分かりますよね。
でも、長い文章になると、どの単語がどの単語と関係しているかを見つけるのは大変です。
そこでAIは 自己注意(Self-Attention) という仕組みを使います。
ざっくり言うと:
文章の中で「今見ている単語」が、ほかの単語のどこに注目すればいいかを決める計算
2. 自己注意のイメージ
文章の中のある単語を中心に見てみます:
「昨日、そらねこは公園で猫と遊んだ」
もし「遊んだ」を予測するとき、
AIは「猫」と「そらねこ」が関係していることに注目する必要があります。
自己注意はこれを自動でやります:
遊んだ → 注目する単語: そらねこ, 猫
文章が長くても、どの単語を見ればいいかを計算してくれるんです。
3. 数字で見るとどうなるの?
自己注意では、各単語が他の単語にどれだけ注目するかを**重み(ウェイト)**として計算します。
例:5単語の文章
| 単語 | 注目度(遊んだを見るとき) |
|---|---|
| 昨日 | 0.05 |
| そらねこ | 0.4 |
| は | 0.05 |
| 公園 | 0.1 |
| 猫 | 0.4 |
- 高い値ほど「注目している」
- 「遊んだ」は「そらねこ」と「猫」に注目している
これがSelf-Attentionの重みです。
4. なぜ便利なのか?
自己注意の強みは以下の3点です:
- 長文でも関係を忘れない
- 従来のRNNでは、長い文章だと前の単語を忘れてしまうことがあった
- 並列処理ができる
- 全単語同時に計算できるので、処理が速い
- 重要な単語を見つけやすい
- 「遊んだ」が「猫」と「そらねこ」を重視するように、関係の強さを自動で学習
5. AIの文章が自然に見える理由
文章が自然に見えるのは、自己注意のおかげです。
- 「遊んだ」が「猫」とつながっている
- 「彼女」がどの人を指すか分かる
こういう文脈理解が、確率分布と自己注意の組み合わせで実現しています。
6. 簡単まとめ
- 自己注意 = 単語が他の単語にどれだけ注目するかを計算する方法
- 長文でも関係を見失わず、重要な単語を重視できる
- 確率分布と組み合わせて、AIは自然で一貫した文章を作る
次の記事へ
自己注意があるから、AIは文章の中の重要な関係を見失わずに次の単語を予測できます。
- 前の記事:「はじめての確率分布」
- 次の記事:「AIにプライドはあるのか」(人格錯覚の仕組み解説)


コメント