Cyan's Blog

Search

Search IconIcon to open search

D2L-33-卷积神经网络CNN

Last updated Feb 26, 2022 Edit Source

# Convolutional Neural Network - 卷积神经网络

2022-02-26

Tags: #CNN #DeepLearning #Convolution

# MLP的不足

随着图像分辨率的提高, MLP显露出以下不足:

# 从全连接层到卷积 - From Fully-Connected Layers to Convolutions

# MLP推广到二维:权重变成了四维张量

之前 MLP 的输入输出都是一维的: mlp 图像可以看作像素点构成的二维矩阵。如果网络输入输出的形状都是二维的矩阵的话, 那么网络每一层的权重会变成一个四维张量: 四维权重 规范地说, 就是: $$h_{i, j}=\sum_{k, l} w_{i, j, k, l} x_{k, l}$$ 其中索引 $k,l$ 的作用是对于每一个隐藏单元, 遍历所有输入 $X$; 索引 $i,j$ 的作用是遍历所有的隐藏单元($H_h\times H_w$).

# 平移不变性 Translation Invariance

4001

# 局部性 Local Connectivity

# 卷积是一种特殊的全连接

# 感受野的增长

400

卷积层的 归纳偏置 Inductive bias

一个例子: We build a face detector. It works well on all benchmarks. Unfortunately it fails on test data—the offending examples are close-ups where the face fills the entire image (no such data were in the training set).2

# 进一步拓展: Channels - 通道



  1. Translational symmetry - Wikipedia ↩︎

  2. 4.9. Environment and Distribution Shift — Dive into Deep Learning 0.17.5 documentation ↩︎

  3. 我自己编的 Reference Needed ↩︎

  4. CNN Explainer ↩︎