模型评估是机器学习过程中至关重要的环节,它可以帮助我们了解模型的性能和效果。以下是一些常用的模型评估方法:

常用评估指标

  • 准确率(Accuracy):模型预测正确的样本数占总样本数的比例。
  • 召回率(Recall):模型预测正确的正样本数占所有正样本的比例。
  • 精确率(Precision):模型预测正确的正样本数占预测为正样本的总数比例。
  • F1 分数(F1 Score):精确率和召回率的调和平均数。

评估方法

  • 交叉验证(Cross-validation):将数据集分成 K 个小组,然后进行 K 次训练和验证,每次使用不同的 K 个小组作为验证集。
  • 混淆矩阵(Confusion Matrix):展示模型预测结果和真实结果的对比情况。

示例代码

from sklearn.metrics import accuracy_score, recall_score, precision_score, f1_score

# 假设 y_true 是真实标签,y_pred 是模型预测结果
y_true = [0, 1, 1, 0, 1, 0, 1, 0, 0, 1]
y_pred = [0, 1, 1, 0, 1, 0, 1, 0, 0, 0]

print("准确率:", accuracy_score(y_true, y_pred))
print("召回率:", recall_score(y_true, y_pred))
print("精确率:", precision_score(y_true, y_pred))
print("F1 分数:", f1_score(y_true, y_pred))

查看更多关于模型评估的教程

Confusion Matrix