线性回归是机器学习中最基础的算法之一,常用于预测和建模连续数值型目标。以下是通过 Jupyter Notebook 实现的完整流程:
1. 基本概念
线性回归假设因变量 $y$ 与自变量 $x$ 之间存在线性关系,其数学表达式为: $$ y = wx + b + \epsilon $$ 其中:
- $w$ 为权重(斜率)
- $b$ 为偏置(截距)
- $\epsilon$ 为误差项
2. Python 实现步骤
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
# 生成示例数据
X = np.array([[1], [2], [3], [4], [5]])
y = np.array([2, 4, 5, 4, 5])
# 创建模型并训练
model = LinearRegression()
model.fit(X, y)
# 输出参数
print(f"权重: {model.coef_[0]}") # 权重
print(f"偏置: {model.intercept_}") # 偏置
3. 可视化结果
训练完成后,可通过以下代码绘制拟合线:
plt.scatter(X, y, color='blue', label='数据点')
plt.plot(X, model.predict(X), color='red', label='拟合线')
plt.xlabel('自变量 x')
plt.ylabel('因变量 y')
plt.legend()
plt.show()
4. 扩展阅读
若需深入理解线性回归的优化原理(如梯度下降),可参考:
jupyter_notebook/ai_examples/linear_regression_practice
(包含代码实战与参数调优示例)📚
5. 注意事项
- 数据需满足线性关系假设
- 可通过
sklearn
直接调用 - 误差分析建议使用 R² 分数评估模型性能