激活函数是神经网络中非常重要的组成部分,它们决定了神经元的输出。以下是几种常见的激活函数:

Sigmoid 函数

Sigmoid 函数是一种常用的非线性激活函数,其输出值介于 0 和 1 之间。它可以将输入映射到概率值。

  • 公式:σ(x) = 1 / (1 + e^(-x))
  • Sigmoid Function Graph

ReLU 函数

ReLU(Rectified Linear Unit)函数是一种线性激活函数,其输出为输入值大于 0 的部分,否则输出为 0。

  • 公式:ReLU(x) = max(0, x)
  • ReLU Function Graph

Tanh 函数

Tanh 函数是 Sigmoid 函数的改进版本,其输出值介于 -1 和 1 之间。

  • 公式:tanh(x) = 2 / (1 + e^(-2x)) - 1
  • Tanh Function Graph

Leaky ReLU 函数

Leaky ReLU 函数是 ReLU 函数的一种改进版本,它允许小于 0 的输入值有一个小的梯度,从而避免死神经元问题。

  • 公式:Leaky ReLU(x) = max(αx, x),其中 α 是一个小的常数

更多关于激活函数的内容,您可以参考激活函数详解