1. 卷积层进阶

卷积层是CNN的核心,通过**滤波器(Filter)**提取局部特征。

卷积层
- **权重共享**:减少参数量,提升计算效率 - **多通道处理**:支持RGB等多光谱数据输入 - **感受野概念**:通过堆叠卷积层扩大特征捕捉范围

2. 激活函数选择

常用的激活函数包括:

  • ReLU(Rectified Linear Unit)
ReLU
- **Leaky ReLU**:解决梯度消失问题 - **Swish**:在深层网络中表现更优 > 📌 [点击查看不同激活函数的可视化对比](/deep_learning_basics/visualizations/activation_functions)

3. 池化操作类型

池化层主要有:

  • 最大池化(Max Pooling)
Max_Pooling
- **平均池化(Average Pooling)** - **自适应池化**:动态调整输出尺寸 > ⚠️ 池化操作会降低空间维度,注意与卷积层的搭配使用

4. 网络结构设计

设计CNN时需考虑:

  1. 卷积核大小:3x3比5x5更常见
  2. 层数堆叠:通常采用3-5个卷积层
  3. 残差连接:解决梯度消失问题
网络结构设计
> 📚 [延伸阅读:CNN网络结构设计原则](/deep_learning_basics/tutorials/cnn_introduction)

5. 迁移学习应用

  • 使用预训练模型(如VGG、ResNet)
  • 冻结部分层,仅训练顶层
  • 微调(Fine-tuning)技巧
迁移学习

6. 正则化技术

  • Dropout:随机失活神经元
  • Batch Normalization:加速训练过程
  • 数据增强:旋转、翻转等操作
正则化

🧩 尝试在PyTorch官方教程中实践这些概念!