激活函数是神经网络中决定神经元输出的核心组件,它为模型引入非线性特性,使网络能够学习复杂的模式。以下是常见的激活函数类型:

常用激活函数列表

  • Sigmoid
    用于二分类问题,输出范围为(0,1)。

    Sigmoid
  • Tanh
    与Sigmoid类似,但输出范围为(-1,1),中心化特性更优。

    Tanh
  • ReLU
    最常用的激活函数,计算高效且缓解梯度消失问题。

    ReLU
  • Leaky ReLU
    解决ReLU的"死区"问题,允许小幅度负输入。

    Leaky_Relu
  • Swish
    一种自门控激活函数,表现优于ReLU在某些场景。

    Swish

扩展阅读

如需深入了解不同激活函数的数学原理与应用场景,可访问:/activation_functions_tutorial