python模型性能评估需选对指标、用对工具、理解含义:二分类用accuracy/precision/recall/f1/auc,多分类加macro/micro平均,回归用mae/mse/rmse/r²;scikit-learn可快速计算并可视化混淆矩阵与roc曲线;注意数据类型一致、auc需概率输入、不均衡时慎用accuracy、推荐交叉验证。

直接用 Python 计算模型性能指标并不难,关键是选对指标、用对工具、理解数值背后的含义。下面从常用指标、代码实现、注意事项三方面讲清楚。
常用模型评估指标及适用场景
不同任务类型对应的核心指标不同:
- 二分类:准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1-score、AUC-ROC
- 多分类:宏平均/微平均 Precision/Recall/F1、混淆矩阵、类别级准确率
- 回归:MAE(平均绝对误差)、MSE(均方误差)、RMSE(均方根误差)、R²(决定系数)
比如预测用户是否会点击广告,更关注“召回率”(别漏掉潜在点击用户),而银行风控可能更看重“精确率”(别把好人当坏人)。
用 scikit-learn 快速计算核心指标
以二分类为例,假设已有真实标签 y_true 和预测概率 y_pred_proba 或预测类别 y_pred:
立即学习“Python免费学习笔记(深入)”;
<font size="2">from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, roc_auc_score, confusion_matrix
from sklearn.model_selection import train_test_split
<h1>假设 model 已训练好,X_test, y_test 已准备好</h1><p>y_pred = model.predict(X_test) # 硬预测
y_pred_proba = model.predict_proba(X_test)[:, 1] # 正类概率</p><p>print("Accuracy:", accuracy_score(y_test, y_pred))
print("Precision:", precision_score(y_test, y_pred))
print("Recall:", recall_score(y_test, y_pred))
print("F1-score:", f1_score(y_test, y_pred))
print("AUC:", roc_auc_score(y_test, y_pred_proba))
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))</font>多分类只需加参数 average='macro' 或 'micro';回归任务换用 mean_absolute_error、r2_score 等即可。
画图辅助分析:混淆矩阵与 ROC 曲线
单看数字不够直观,可视化能快速定位问题:
- 混淆矩阵热力图 → 查看哪类容易被误判
- ROC 曲线 → 判断模型在不同阈值下的权衡能力
示例(需安装 matplotlib):
<font size="2">import matplotlib.pyplot as plt
from sklearn.metrics import ConfusionMatrixDisplay, RocCurveDisplay
<h1>混淆矩阵图</h1><p>ConfusionMatrixDisplay.from_predictions(y_test, y_pred)
plt.title("Confusion Matrix")
plt.show()</p><h1>ROC 曲线</h1><p>RocCurveDisplay.from_predictions(y_test, y_pred_proba)
plt.title("ROC Curve")
plt.show()</font>几个容易忽略但关键的细节
实际用的时候常踩坑,注意这几点:
- 确保
y_pred和y_test数据类型一致(都是 int 或都转成 0/1) - AUC 要求输入是正类概率,不是硬预测结果
- 类别严重不均衡时,准确率会失真,优先看 F1 或 AUC
- 交叉验证比单次 train/test 划分更能反映模型稳定性,可用
cross_val_score
基本上就这些。掌握这几个指标+几行代码,就能系统评估大多数模型了。











