激活函数在神经网络中扮演着至关重要的角色。以下是一些常见的激活函数及其应用:
常见激活函数
- Sigmoid 函数:将输入值压缩到 0 和 1 之间,常用于二分类问题。
- ReLU 函数:在 0 以下的输入输出为 0,在 0 以上的输入输出为输入值,常用于隐藏层。
- Tanh 函数:将输入值压缩到 -1 和 1 之间,常用于回归问题。
示例
假设我们有一个简单的神经网络,输入层有 2 个神经元,隐藏层有 3 个神经元,输出层有 1 个神经元。
- 输入层:[x1, x2]
- 隐藏层:[h1, h2, h3]
- 输出层:[y]
h1 = max(0, x1 * w1 + b1)
h2 = max(0, x2 * w2 + b2)
h3 = max(0, x3 * w3 + b3)
# 输出层
y = max(0, h1 * w4 + b4 + h2 * w5 + b5 + h3 * w6 + b6)
扩展阅读
想了解更多关于激活函数的知识?请访问我们的 神经网络教程。
激活函数示例