Cyan's Blog

Search

Search IconIcon to open search

D2L-40-AlexNet

Last updated Mar 2, 2022 Edit Source

# AlexNet

2022-03-02

Tags: #DeepLearning #AlexNet #CNN #ImageNet

# 模型解析

# 对比LeNet

3

# 网络结构的改进

# 激活函数

6

# 容量控制和预处理

1
2
3
4
5
6
7
8
9
net = nn.Sequential(
...
    # 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合
    nn.Linear(6400, 4096), nn.ReLU(),
    nn.Dropout(p=0.5),
    nn.Linear(4096, 4096), nn.ReLU(),
    nn.Dropout(p=0.5),
...
)

# Side Notes

# 不足

# Origin


  1. 24 深度卷积神经网络 AlexNet【动手学深度学习v2】哔哩哔哩bilibili ↩︎

  2. Dropout并不是在这篇文章里面提出来的, 但是的确是同一帮人提出来的 ↩︎

  3. 5 Advanced CNN architectures · Deep Learning for Vision Systems ↩︎

  4. AlexNet的输入大小好像有点不统一, 在论文里面是 $224\times224$ , 但是如果Padding=1, Stride=4的话, 下一个卷积层的大小是 $54.5$, 不是一个整数, 需要向下取整得到54. 所以有的地方就把输入改成了227, 这样算出来就刚好是54. ↩︎

  5. 7.1. 深度卷积神经网络(AlexNet) — 动手学深度学习 2.0.0-beta0 documentation ↩︎

  6. GitHub - ishanExtreme/AlexNet-Visualization: Visualizing layer output of AlexNet model trained on cifar-10 dataset ↩︎

  7. CNN 모델 ↩︎