入力(Query)と出力(Memory)が違う言葉で構成されているAttention。

ニューラル機械翻訳モデルは、一時期、2つのRNNで構成されたエンコーダ・デコーダモデルをAttentionで「橋渡し」する構造だった。
「橋渡し」とは、入力文(Source)と出力文(Target)の間で単語間の関係性を算出することである。
ここに使われるAttentionが特に、Source-Target attentionと呼ばれる。