激活函数是深度学习中非常关键的部分,它们为神经网络提供了非线性特性,使得模型能够学习更复杂的模式。
常见激活函数
以下是几种常见的激活函数:
- Sigmoid 函数:输出值介于 0 和 1 之间,常用于二分类问题。
- ReLU 函数:输出值大于等于 0,常用于隐藏层。
- Tanh 函数:输出值介于 -1 和 1 之间,常用于输出层。
示例
以下是一个 ReLU 函数的例子:
import numpy as np
def relu(x):
return np.maximum(0, x)
# 测试
print(relu(-1)) # 输出:0
print(relu(2)) # 输出:2
扩展阅读
想要了解更多关于激活函数的内容,可以阅读我们网站的深度学习教程。
ReLU 函数图像