机器学习分类任务评价指标
时间: 2025-05-28 07:30:36 浏览: 44
### 机器学习分类任务的评价指标
#### 准确率 (Accuracy)
准确率是指模型预测正确的样本数占总样本数的比例。它适用于类别分布均衡的数据集,但在类别不均衡的情况下可能无法很好地衡量模型性能[^2]。
计算公式如下:
```python
accuracy = (TP + TN) / (TP + FP + FN + TN)
```
---
#### 精确率 (Precision)
精确率又称查准率,用于衡量模型在预测为正类别的样本中实际为正类别的比例。对于关注减少错误报警的应用场景尤为重要[^3]。
计算公式如下:
```python
precision = TP / (TP + FP)
```
---
#### 召回率 (Recall)
召回率又称灵敏度或真正率(True Positive Rate, TPR),表示实际为正类别的样本中有多少被正确识别出来。在需要尽量捕获所有正样本的任务中更为重要[^2]。
计算公式如下:
```python
recall = TP / (TP + FN)
```
---
#### F1分数 (F1-Score)
F1分数是精确率和召回率的调和平均值,综合考虑了两者的表现,在二者冲突时提供了一个平衡点。
计算公式如下:
```python
f1_score = 2 * ((precision * recall) / (precision + recall))
```
---
#### ROC曲线与AUC值
ROC曲线通过绘制不同阈值下的假正率(False Positive Rate, FPR)与真正率(True Positive Rate, TPR)的关系来评估二分类模型的性能[^1]。理想情况下,ROC曲线应尽可能靠近左上角,表明高TPR和低FPR[^2]。
- **FPR**: 假正率,即负样本被错分为正样本的概率。
- **TPR**: 真正率,即正样本被正确识别的概率。
AUC(Area Under Curve)是ROC曲线下方的面积,取值范围为0到1。较高的AUC值说明模型具有更好的区分能力[^1]。
---
#### 混淆矩阵 (Confusion Matrix)
混淆矩阵是一个表格形式的结果总结工具,清晰展示了模型预测结果与真实标签之间的对应关系。它是计算上述各项指标的基础[^2]。
| | 预测为正类 | 预测为负类 |
|---------------|------------|------------|
| 实际为正类 | True Positives (TP) | False Negatives (FN) |
| 实际为负类 | False Positives (FP) | True Negatives (TN) |
---
### 总结
以上介绍了常见的分类任务评价指标及其意义。每种指标都有特定适用场合,需根据具体应用场景选择合适的组合进行分析。
阅读全文
相关推荐







