4. Attention Mechanisms
Attention Mechanisms and Self-Attention in Neural Networks
Attention mechanisms allow neural networks to focus on specific parts of the input when generating each part of the output. それらは異なる入力に異なる重みを割り当て、モデルが現在のタスクに最も関連性の高い入力を決定するのに役立ちます。これは、正確な翻訳のために文全体の文脈を理解する必要がある機械翻訳のようなタスクでは重要です。
この第4段階の目標は非常にシンプルです:いくつかの注意メカニズムを適用すること。これらは、語彙内の単語と、LLMのトレーニングに使用される現在の文の隣接単語との関係を捉えるための多くの繰り返し層**になります。 これには多くの層が使用されるため、多くの学習可能なパラメータがこの情報を捉えることになります。
Understanding Attention Mechanisms
従来のシーケンスからシーケンスへのモデルは、入力シーケンスを固定サイズのコンテキストベクトルにエンコードします。しかし、このアプローチは長い文に対しては苦労します。なぜなら、固定サイズのコンテキストベクトルは必要なすべての情報を捉えられない可能性があるからです。注意メカニズムは、モデルが各出力トークンを生成する際にすべての入力トークンを考慮できるようにすることで、この制限に対処します。
Example: Machine Translation
ドイツ語の文「Kannst du mir helfen diesen Satz zu übersetzen」を英語に翻訳することを考えてみましょう。単語ごとの翻訳では、言語間の文法構造の違いにより、文法的に正しい英語の文は生成されません。注意メカニズムは、出力文の各単語を生成する際に入力文の関連部分に焦点を当てることを可能にし、より正確で一貫した翻訳を実現します。
Introduction to Self-Attention
自己注意、または内部注意は、注意が単一のシーケンス内で適用され、そのシーケンスの表現を計算するメカニズムです。これにより、シーケンス内の各トークンが他のすべてのトークンに注意を向けることができ、トークン間の依存関係を距離に関係なく捉えるのに役立ちます。
Key Concepts
Tokens: 入力シーケンスの個々の要素(例:文中の単語)。
Embeddings: トークンのベクトル表現で、意味情報を捉えます。
Attention Weights: 他のトークンに対する各トークンの重要性を決定する値。
Calculating Attention Weights: A Step-by-Step Example
文 "Hello shiny sun!" を考え、各単語を3次元の埋め込みで表現します:
Hello:
[0.34, 0.22, 0.54]
shiny:
[0.53, 0.34, 0.98]
sun:
[0.29, 0.54, 0.93]
私たちの目標は、自己注意を使用して単語 "shiny" の コンテキストベクトル を計算することです。
Step 1: Compute Attention Scores
各次元のクエリの値を関連するトークンの値と掛け算し、結果を加算します。トークンのペアごとに1つの値が得られます。
文中の各単語について、"shiny" に対する 注意スコア を、その埋め込みのドット積を計算することで求めます。
"Hello" と "shiny" の注意スコア
"shiny" と "shiny" の注意スコア
"sun" と "shiny" の注意スコア
Step 2: Normalize Attention Scores to Obtain Attention Weights
数学的な用語に迷わないでください。この関数の目標はシンプルです。すべての重みを正規化して、合計が1になるようにします。
さらに、softmax 関数が使用されるのは、指数部分によって違いを強調し、有用な値を検出しやすくするためです。
注意スコアに softmax関数 を適用して、合計が1になる注意重みを得ます。
指数を計算します:
合計を計算します:
注意重みを計算します:
Step 3: Compute the Context Vector
各注意重みを関連するトークンの次元に掛け算し、すべての次元を合計して1つのベクトル(コンテキストベクトル)を得ます。
コンテキストベクトル は、すべての単語の埋め込みの重み付き合計として計算され、注意重みを使用します。
各成分を計算します:
"Hello" の重み付き埋め込み:
* **"shiny" の重み付き埋め込み**:
* **"sun" の重み付き埋め込み**:
重み付き埋め込みを合計します:
context vector=[0.0779+0.2156+0.1057, 0.0504+0.1382+0.1972, 0.1237+0.3983+0.3390]=[0.3992,0.3858,0.8610]
このコンテキストベクトルは、文中のすべての単語からの情報を取り入れた「shiny」の強化された埋め込みを表します。
Summary of the Process
注意スコアを計算する: 対象単語の埋め込みとシーケンス内のすべての単語の埋め込みとの間のドット積を使用します。
スコアを正規化して注意重みを得る: 注意スコアにsoftmax関数を適用して、合計が1になる重みを得ます。
コンテキストベクトルを計算する: 各単語の埋め込みをその注意重みで掛け算し、結果を合計します。
Self-Attention with Trainable Weights
実際には、自己注意メカニズムは学習可能な重みを使用して、クエリ、キー、および値の最適な表現を学習します。これには、3つの重み行列を導入します:
クエリは以前と同様に使用するデータであり、キーと値の行列は単にランダムに学習可能な行列です。
Step 1: Compute Queries, Keys, and Values
各トークンは、定義された行列によってその次元値を掛け算することで、独自のクエリ、キー、および値の行列を持ちます:
これらの行列は、元の埋め込みを注意を計算するのに適した新しい空間に変換します。
Example
仮定:
入力次元
din=3
(埋め込みサイズ)出力次元
dout=2
(クエリ、キー、および値のための希望の次元)
重み行列を初期化します:
クエリ、キー、値を計算する:
Step 2: Compute Scaled Dot-Product Attention
Compute Attention Scores
以前の例と似ていますが、今回はトークンの次元の値を使用するのではなく、トークンのキー行列を使用します(すでに次元を使用して計算されています)。したがって、各クエリ qi
とキー kj
に対して:
Scale the Scores
ドット積が大きくなりすぎないように、キー次元 dk
の平方根でスケーリングします:
スコアは次元の平方根で割られます。なぜなら、ドット積が非常に大きくなる可能性があり、これがそれらを調整するのに役立つからです。
Apply Softmax to Obtain Attention Weights: 最初の例のように、すべての値を正規化して合計が1になるようにします。
Step 3: Compute Context Vectors
最初の例のように、すべての値行列をその注意重みで掛けて合計します:
Code Example
https://github.com/rasbt/LLMs-from-scratch/blob/main/ch03/01_main-chapter-code/ch03.ipynb から例を取得すると、私たちが話した自己注意機能を実装するこのクラスを確認できます:
注意:行列をランダムな値で初期化する代わりに、nn.Linear
を使用してすべての重みをトレーニングするパラメータとしてマークします。
因果注意:未来の単語を隠す
LLMでは、モデルが現在の位置の前に出現するトークンのみを考慮して次のトークンを予測することを望みます。因果注意、またはマスク付き注意は、注意メカニズムを変更して未来のトークンへのアクセスを防ぐことによってこれを実現します。
因果注意マスクの適用
因果注意を実装するために、ソフトマックス操作の前に注意スコアにマスクを適用します。これにより、残りのスコアは依然として1に合計されます。このマスクは、未来のトークンの注意スコアを負の無限大に設定し、ソフトマックスの後にその注意重みがゼロになることを保証します。
手順
注意スコアの計算:以前と同様。
マスクの適用:対角線の上に負の無限大で満たされた上三角行列を使用します。
ソフトマックスの適用:マスクされたスコアを使用して注意重みを計算します。
ドロップアウトによる追加の注意重みのマスキング
過学習を防ぐために、ソフトマックス操作の後に注意重みにドロップアウトを適用できます。ドロップアウトは、トレーニング中に注意重みの一部をランダムにゼロにします。
通常のドロップアウトは約10-20%です。
コード例
コード例はhttps://github.com/rasbt/LLMs-from-scratch/blob/main/ch03/01_main-chapter-code/ch03.ipynbからです:
シングルヘッドアテンションをマルチヘッドアテンションに拡張する
マルチヘッドアテンションは、実際には複数のインスタンスの自己注意機能を実行し、それぞれが独自の重みを持つことで、異なる最終ベクトルが計算されることを意味します。
コード例
前のコードを再利用し、いくつかの回数実行するラッパーを追加することも可能ですが、これはhttps://github.com/rasbt/LLMs-from-scratch/blob/main/ch03/01_main-chapter-code/ch03.ipynbからのより最適化されたバージョンで、すべてのヘッドを同時に処理します(高価なforループの数を減らします)。コードに示されているように、各トークンの次元はヘッドの数に応じて異なる次元に分割されます。このように、トークンが8次元を持ち、3つのヘッドを使用したい場合、次元は4次元の2つの配列に分割され、各ヘッドはそのうちの1つを使用します:
別のコンパクトで効率的な実装のために、PyTorchのtorch.nn.MultiheadAttention
クラスを使用することができます。
ChatGPTによる、トークンの次元をヘッド間で分割する方が、各ヘッドがすべてのトークンのすべての次元をチェックするよりも良い理由の短い回答:
各ヘッドがすべての埋め込み次元を処理できるようにすることは、各ヘッドが完全な情報にアクセスできるため有利に思えるかもしれませんが、標準的な実践は埋め込み次元をヘッド間で分割することです。このアプローチは、計算効率とモデルのパフォーマンスのバランスを取り、各ヘッドが多様な表現を学ぶことを促します。したがって、埋め込み次元を分割することは、各ヘッドがすべての次元をチェックするよりも一般的に好まれます。
References
Last updated