Cyan's Blog

Search

Search IconIcon to open search

D2L-45-ResNet

Last updated Mar 6, 2022 Edit Source

# ResNet 残差网络

2022-03-06

Tags: #ResNet #CNN #DeepLearning

# Motivation

# 函数类的角度

# 深层网络的训练困境

# 网络架构

# 残差块

# 两种不同的残差块

# 拼接残差块: 多阶段的模型


  1. 另一个说法是很容易让一层网络变成恒等函数 Identity Function ↩︎

  2. 29.2 ResNet为什么能训练出1000层的模型【动手学深度学习v2】 哔哩哔哩 bilibili ↩︎

  3. D2L-24-数值稳定性 . 还有如果 $g(\mathbf x)$ 已经学习的较好了, 梯度也可能变得较小. (在损失函数取得恰当的时候, 一般是这样的. 一个例子是 为什么Softmax回归不用MSE↩︎

  4. K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 770–778. PDF(zotero://select/items/@he2016deep) ↩︎

  5. 这体现了 D2L-43-GoogLeNet(Inception)D2L-42-NiN 的思想 ↩︎