线性回归是机器学习中最基础的算法之一,常用于预测和建模连续数值型目标。以下是通过 Jupyter Notebook 实现的完整流程:


1. 基本概念

线性回归假设因变量 $y$ 与自变量 $x$ 之间存在线性关系,其数学表达式为: $$ y = wx + b + \epsilon $$ 其中:

  • $w$ 为权重(斜率)
  • $b$ 为偏置(截距)
  • $\epsilon$ 为误差项
线性回归_概念

2. Python 实现步骤

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression

# 生成示例数据
X = np.array([[1], [2], [3], [4], [5]])
y = np.array([2, 4, 5, 4, 5])

# 创建模型并训练
model = LinearRegression()
model.fit(X, y)

# 输出参数
print(f"权重: {model.coef_[0]}")  # 权重
print(f"偏置: {model.intercept_}")  # 偏置
线性回归_代码

3. 可视化结果

训练完成后,可通过以下代码绘制拟合线:

plt.scatter(X, y, color='blue', label='数据点')
plt.plot(X, model.predict(X), color='red', label='拟合线')
plt.xlabel('自变量 x')
plt.ylabel('因变量 y')
plt.legend()
plt.show()
线性回归_图表

4. 扩展阅读

若需深入理解线性回归的优化原理(如梯度下降),可参考:
jupyter_notebook/ai_examples/linear_regression_practice
(包含代码实战与参数调优示例)📚


5. 注意事项

  • 数据需满足线性关系假设
  • 可通过 sklearn 直接调用
  • 误差分析建议使用 R² 分数评估模型性能
线性回归_注意事项