激活函数是深度学习中非常关键的部分,它们为神经网络提供了非线性特性,使得模型能够学习更复杂的模式。

常见激活函数

以下是几种常见的激活函数:

  • Sigmoid 函数:输出值介于 0 和 1 之间,常用于二分类问题。
  • ReLU 函数:输出值大于等于 0,常用于隐藏层。
  • Tanh 函数:输出值介于 -1 和 1 之间,常用于输出层。

示例

以下是一个 ReLU 函数的例子:

import numpy as np

def relu(x):
    return np.maximum(0, x)

# 测试
print(relu(-1))  # 输出:0
print(relu(2))   # 输出:2

扩展阅读

想要了解更多关于激活函数的内容,可以阅读我们网站的深度学习教程

ReLU 函数图像