mAP50
和 mAP50-95
是目标检测任务中常用的评估指标,用于衡量模型在不同 交并比(IoU)阈值 下的平均精度(Average Precision, AP)。它们的区别主要体现在 IoU 阈值范围 上。
✅ 1. mAP50(mean Average Precision at IoU=0.50)
- 定义:计算每个类别的 平均精度(AP),仅使用 IoU 阈值为 0.50 的情况。
- 含义:只要预测框与真实框的 IoU ≥ 0.5,就认为是正确匹配(True Positive)。
- 特点:
- 对模型要求较低,容易达到较高分数。
- 常用于快速评估或早期版本的YOLO等模型。
- 应用场景:适合对定位精度要求不高的场景。
✅ 2. mAP50-95(mean Average Precision at IoU=0.50:0.05:0.95)
- 定义:计算 从 IoU=0.5 到 IoU=0.95,每隔 0.05 一个阈值,共 10 个 IoU 阈值下的平均精度(AP),然后取平均值。
- 公式表示:
mAP50-95 = average(AP at IoU=0.5, 0.55, 0.6, ..., 0.95)
- 含义:只有当预测框与真实框的 IoU 足够高(比如 0.7 或更高)时才被认为是正确预测。
- 特点:
- 更严格、更全面地评估模型的定位能力。
- 是 COCO 数据集默认使用的评价指标。
- 分数通常低于 mAP50。
- 应用场景:适合需要高精度定位的任务,如自动驾驶、医学图像分析等。
📊 举例说明
模型 | mAP50 | mAP50-95 |
---|---|---|
YOLOv5s | 64.0% | 36.5% |
YOLOv8n | 69.5% | 39.2% |
YOLOv11n | 70.1% | 40.5% |
可以看到,虽然 mAP50
看起来很高,但 mAP50-95
更能反映模型在各种 IoU 阈值下的综合表现。
🧠 总结对比表
指标 | IoU 阈值 | 计算方式 | 严格程度 | 应用场景 |
---|---|---|---|---|
mAP50 | 固定 0.5 | 单一阈值下平均精度 | 较宽松 | 快速评估、低精度需求 |
mAP50-95 | 从 0.5 到 0.95(步长 0.05) | 多个阈值下平均精度取平均 | 更严格 | 标准评估、高精度需求 |
🔁 补充说明
- AP(Average Precision):是对某一类,在所有置信度阈值下的精度-召回曲线(PR Curve)下的面积。
- mAP(mean Average Precision):是对所有类别 AP 的平均。
如果你正在训练或评估目标检测模型,建议优先关注 mAP50-95,因为它更能体现模型的真实性能和泛化能力。如果只想看粗略效果,可以用 mAP50
快速验证。