Cyan's Blog

Search

Search IconIcon to open search

D2L-53-循环神经网络RNN

Last updated Apr 1, 2022 Edit Source

# Recurrent Neural Networks

2022-04-01

Tags: #RNN #DeepLearning #NeuralNetwork

# Motivation

# 从MLP到RNN

# Hidden States

Hidden States

# 为什么叫"Recurrent" Neural Network

# $\mathbf{H}{t-1}\mathbf{W}{h h}+\mathbf{X} \mathbf{W}_{x h}$ 实际的计算方式

# RNN的评估指标: 困惑度 Perplexity

困惑度的最好的理解是“下一个词元的实际选择数的 调和平均数(Harmonic mean)”。 我们看看一些案例:

  • 在最好的情况下,模型总是完美地估计标签词元的概率为 $1$。 在这种情况下,模型的困惑度为 $1$。
  • 在最坏的情况下,模型总是预测标签词元的概率为 $0$。 在这种情况下,困惑度是正无穷大。
  • 在基线上,该模型的预测是词表的所有可用词元上的均匀分布。 在这种情况下,困惑度等于词表中唯一词元的数量 $|\mathcal{V}|$。 事实上,如果我们在没有任何压缩的情况下存储序列, 这将是我们能做的最好的编码方式。 因此,这种方式提供了一个重要的上限, 而任何实际模型都必须超越这个上限。1

# RNN中output和hidden_state的区别

RNN中output和hidden_state的区别


  1. 8.4. 循环神经网络 — 动手学深度学习 2.0.0-beta0 documentation ↩︎