线性回归是机器学习中最基础的算法之一,它用于预测一个连续值。本文将介绍如何使用 Python 实现线性回归。
基本概念
线性回归的目标是找到一个线性函数,使得该函数对数据的预测误差最小。
线性回归的公式如下:
y = b0 + b1 * x
其中,y
是预测值,x
是输入特征,b0
和 b1
是模型的参数。
使用 Python 实现线性回归
在 Python 中,我们可以使用 scikit-learn
库来实现线性回归。
首先,我们需要导入必要的库:
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
接下来,我们准备数据:
# 假设我们有一个包含 x 和 y 的数据集
x = [[1], [2], [3], [4], [5]]
y = [1, 2, 2.5, 3, 3.5]
# 将数据集分为训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=0)
然后,我们创建一个线性回归模型并训练它:
# 创建线性回归模型
model = LinearRegression()
# 训练模型
model.fit(x_train, y_train)
最后,我们使用模型进行预测并评估其性能:
# 使用模型进行预测
y_pred = model.predict(x_test)
# 计算预测误差
mse = mean_squared_error(y_test, y_pred)
print("预测误差:", mse)
扩展阅读
如果您想了解更多关于线性回归的知识,可以阅读以下文章:
图片
线性回归模型示例