激活层是神经网络中引入非线性的关键组件,通过将非线性函数应用到输入数据上,使模型能够学习复杂的模式。以下是 Keras 中常用的激活函数及其用法:
常用激活函数 🔧
ReLU(Rectified Linear Unit)
最常用的激活函数,计算为max(0, x)
。适用于隐藏层,能有效缓解梯度消失问题。Sigmoid
输出范围为 (0, 1),常用于二分类问题的输出层。Tanh(双曲正切)
输出范围为 (-1, 1),比 Sigmoid 更适合中心化的数据。Softmax
用于多分类问题的输出层,将输入转换为概率分布。
如何使用激活层 📌
在 Keras 中,可通过 Activation
层或直接在层中指定 activation
参数实现:
from keras.layers import Dense, Activation
# 方法1: 使用 Activation 层
model.add(Dense(64))
model.add(Activation('relu'))
# 方法2: 直接在 Dense 层指定激活函数
model.add(Dense(64, activation='sigmoid'))
扩展阅读 📚
如需深入了解激活函数的数学原理及选择建议,可访问 Keras 激活函数详解。