CNN Framework

🔶 1. LeNet-5(1998)

背景:最早应用于手写数字识别(MNIST),是现代 CNN 的雏形。

创新点:
使用卷积层和池化层交替
使用 sigmoid/tanh 激活函数
全连接层连接高阶特征

🔶 2. AlexNet(2012)

背景:ImageNet 图像分类竞赛首次大幅领先传统方法,推动深度学习浪潮。

创新点
使用 ReLU 激活函数(更快收敛)
引入 Dropout 防止过拟合
使用 GPU 并行训练
使用 局部响应归一化(LRN)

🔶 3. VGG(2014)

背景:验证深层小卷积核网络的有效性,结构简单但效果优越。

创新点:
使用多个 3×3 小卷积核堆叠代替大卷积
使用统一的结构块(Conv-Conv-Pool)
深度可扩展(VGG-11~19)

🔶 4. ResNet(2015)

背景:解决深度增加后训练困难、梯度消失等问题,首次训练出超 100 层的 CNN。

创新点:

残差连接(skip connection):学习残差 F(x)+xF(x) + xF(x)+x,防止梯度消失

支持构建超深网络(ResNet-50/101/152)

加速收敛,避免退化问题

🔶 5. DenseNet(2017)

背景:进一步提高特征利用率,解决参数冗余和梯度消失问题。

创新点:

密集连接(Dense Connection):每一层接收所有前层输出作为输入

特征复用,大幅减少参数

改进梯度流动,提升性能


综合分析

架构 年份 主要创新
LeNet-5 1998 首次提出卷积层+池化层+全连接层的结构,用于手写数字识别
AlexNet 2012 引入ReLU激活函数、Dropout正则化,使用GPU并行训练
VGG 2014 使用多个小卷积核(3×3)堆叠,模块化设计易于迁移到其他任务
ResNet 2015 引入残差连接(skip connections),允许训练非常深的网络,解决了深度网络中的梯度消失问题
DenseNet 2017 采用密集连接(每层与所有前面层连接),提高了特征复用,增强了效率和准确性