Cyan's Blog

Search

Search IconIcon to open search

D2L-70-Seq2Seq with Attention - Bahdanau Attention

Last updated Apr 22, 2022 Edit Source

# 含注意力机制的Seq2Seq

2022-04-22

Tags: #Seq2Seq #Attention #DeepLearning #RNN

# Motivation

# 模型构建

选择注意力评分函数

Decoder隐状态的初始化

# 注意力模块

假设输入序列长度为 $T$, 则Decoder在时间步 $t^\prime$ 的上下文变量 $\mathbf{c}{t’}$ 为: (这也是Attention Pooling在时间步 $t^\prime$ 的输出) $$\mathbf{c}{t’} = \sum_{t=1}^T \alpha(\mathbf{s}_{t’ - 1}, \mathbf{h}_t) \mathbf{h}_t$$ 其中:

输入

# 模型实现


  1. Overview - seq2seq ↩︎