トップQs
タイムライン
チャット
視点
アテンション (機械学習)
ウィキペディアから
Remove ads
人工ニューラルネットワークにおけるアテンション(英: attention)は、認知的な注意を模倣するように設計された手法である。注意機構(英: attention mechanism)とも呼ばれる。
アテンションは入力データのある部分を強化し他の部分を弱化する効果をもつ。その動機は、ネットワークが、データの小さくても重要な部分にもっと注意を払うべきということである。 データのどの部分が他の部分よりも重要であるかを文脈に依存できる柔軟性をもつ。これは実行時に固定されているべき標準的な重みとは対照的であり、実行時に変更可能な「ソフトウェイト」としての役割に由来する。
アテンションと類似する機構は、1990年代に以下の名前で提唱されている[1]:
アテンションの応用先として以下が挙げられる:
- ニューラルチューリングマシンの記憶
- 微分可能ニューラルコンピュータの推論タスク[2]
- トランスフォーマー(Transformer)や長短期記憶(LSTM)での言語処理
- パーシーバー(Perceiver)での多重モーダルデータ処理(音、画像、ビデオ、テキスト)[3][4][5]
Remove ads
背景
アテンションは次の役割を果たすモジュールとして設計されている:
- seq2seq: 入力ベクトル列を出力ベクトル列へ変換する[6]
- 長距離依存の考慮: インデックス が離れた入出力を結びつける[7]
- 任意長ベクトル列の変換: 推論ごとに異なる長さの入力列を処理する[8]
- 高い並列処理能力: 学習・推論の高速化[9]
例えば機械翻訳を考える。機械翻訳タスクでは単語の単純置換(日→英)では目的を達成できない。なぜなら日英で語順が異なるからである。すなわち入力単語ベクトル列を出力単語ベクトル列に変換する際、列を列へ変換する必要がある(seq2seq[10])。また列内の近い部分のみの参照では不十分なケースがある。例えば疑問文の日英翻訳において、文頭の "Do" () を生成するには日本語原文の文末「か?」() を参照する必要がある。すなわち長距離依存性を考慮できる必要がある。また文章長は一定でないため、任意長の入力を扱える必要がある[11]。そして長いベクトル列を巨大なモデルで実務的に学習するには高い並列処理能力が求められる。
例えばフィードフォワードモジュールは時間方向の重みによってseq2seqに利用できるが、重みが一定数であるため任意長ベクトル列を扱うことができない。畳み込みモジュールは任意長のseq2seqに利用できるが、長距離依存性を扱うには巨大なカーネルか多くの層を必要とする[12]。回帰モジュールは3つの要件を理論上は満たせるが、ステップごとの回帰の中で長期依存情報が失われることが実務的に知られている(参考: RNN#Copyingタスク)[13]。
この要件は機械翻訳を含む自然言語処理に限らず、画像内の離れた位置にある対象を参照したい画像認識や、音高の時間的な変動を捉えたい音声合成など、幅広いタスクで求められていた。このような背景から「任意長の列を列に変換する際、各位置の入力を直接取り込むモジュール」として提唱・活用されているのがアテンション機構である。
Remove ads
概念
要約
視点
アテンションは「入力ベクトル列のクエリ依存動的重みづけ和」に相当する演算である。
アテンションでは各入力ベクトル の重みづけ和を 番目の出力ベクトル とする。このとき、重みは単なる固定値ではなく動的に計算される(ソフトウェイト)。動的な計算は、 番目の出力に紐づく情報を表現した関連ベクトル と取り込まれる入力ベクトル自身に基づく。情報の流れを表現する概念式としては以下に相当する:
この式が表すように、アテンションでは各出力に対して関連ベクトルと入力ベクトルから重みを求め、その重みに基づいて全入力を取り込む。これにより入力列全体を各出力ベクトルへ直接取り込みつつ、重みの動的計算によって任意長のベクトル列を扱える。すなわち「任意長の列を列に変換する際、各位置の入力を直接取り込むモジュール」として機能している。
このアテンションは別の観点から捉え直すことができる[14]。アテンションでは入力 をベースとして、足される値 (バリュー)とそれを要約した識別子 (キー)を用意している。さらに各出力に紐づいた関連情報をベースとして照会ベクトル (クエリ)を用意し、クエリとキーの一致度に基づいてバリューの重み=取り込む量を決定していると捉えられる[15]。すなわち次の概念式に相当する[14]:
最初の概念式とほぼ同様の形である一方、入力をバリューへ変換したうえで和を取れる柔軟性が追加されている。
この概念を実際に機能する演算とするうえで、以下の具体化をおこなう。まず、 の大きさに制約がないと無限長の入力列に対し出力ベクトルが発散してしまうため、ソフトウェイトは非負かつ出力ベクトルごとに総和1()の制約が課される。この制約内でクエリとキーの一致度を測る関数(クエリ・キー機構、英: query-key mechanism)を具体的に定義するが、これには様々なバリエーションが存在する。ドット積 にソフトマックス関数を適用した形が代表例である[16]。
Remove ads
言語翻訳の事例
要約
視点
英語からフランス語に翻訳する機械を構築するには、基本的なエンコーダ・デコーダに、アテンション単位(attention unit)を合体する(下図)。最も単純な例では、アテンション単位は回帰エンコーダの状態のドット積からなり、訓練の必要はない。実際には、アテンション単位は、クエリ・キー・バリュー(query-key-value)と呼ばれる3層の全結合型ニューラルネットワーク層で構成され、訓練が必要である。後述の「別形」の項を参照。

行列として見ると、アテンション・ウェイトは、ネットワークが文脈に応じてどのようにアテンションを調整するのかを示している。
I | love | you | |
je | 0.94 | 0.02 | 0.04 |
t' | 0.11 | 0.01 | 0.88 |
aime | 0.03 | 0.95 | 0.02 |
このようなアテンションウェイトの考え方は、ニューラルネットワークが批判される「説明可能性」の問題を解決するものである。単語の順序に関係なく逐語訳(verbatim translation、逐次的な翻訳のこと)を行うネットワークは、このような観点で分析可能であれば、対角優位行列を持つことになる。一方、非対角優位であれば、アテンション機構がより微妙であることを示している。デコーダーを最初に通過したとき、94%のアテンションウェイトが最初の英単語 "I" にかかっているので、ネットワークは "je" という単語を提示する。デコーダの2回目の通過では、3番目の英単語 "you" に88%のアテンションウェイトがかかるので "t'" を提示する。最後の通過では、2番目の英単語 "love" に95%のアテンションウェイトがかかるので、"aime" を提示する。
別形
要約
視点
ソフトウェイトを実装したアテンションには様々な変種が存在する。一例として以下が挙げられる:
- 加法アテンション(英: additive attention): 別名Bahdanau Attention[18]
- 乗法的アテンション(英: multiplicative attention): 別名Luong Attention[19]
- 自己アテンション(英: self-attention)
畳み込みニューラルネットワークの場合、アテンション機構は、それが作用する次元、すなわち空間アテンション[20]、チャネルアテンション[21]、またはその両方の組み合わせによって区別することもできる[22][23]。
これらの別形は、エンコーダ側の入力を組み替えて、その効果を各ターゲット出力に再分配するものである。多くの場合、ドット積の相関風の行列が再重み付け係数を提供する(凡例を参照)。
Remove ads
利用
アテンションを中心としたモデルとして Transformer が存在する。Transformerは同一層内に複数の独立した重み行列を持つ(Transformer#マルチヘッドアテンション)。
参照項目
- Transformerのスケール化内積アテンション
- Perceiver - クエリ・キー・バリュー(QKV)のためのアテンション
- Attention Is All You Need - アテンションに基づく、トランスフォーマーとして知られる新しいディープラーニングアーキテクチャを発表した論文
脚注
外部リンク
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads