提示:通用map指标框架代码介绍,直接使用yolov5数据格式,实现论文map指标计算代码解读
文章目录
- 前言
- ``该版本是直接使用yolo数据格式实现map计算,集成txt转json格式内容。``
 
- 一、map模块整体认识
- 二、map计算应用代码解读
- 三、通用map计算指标代码解读
- 四、基于yolov5使用通用map计算指标代码解读
- 1、通用map指标计算模块整体结构说明
- 2、参数构建
- 3、数据准备
- 4、模型初始化
- 5、map指标计算函数(computer_main)代码解读
- ①、获得图像相关路径及指标计算函数初始化
- ②、获得类别
- ③、生成gt的json文件
- ④、图像预处理
- ⑤、模型推理与后处理
- ⑥、输出尺寸恢复
- ⑦、生成预测json格式文件
- ⑧、map指标计算
- computer_main代码
 
- 6、基于yolov5的map指标计算代码链接
 
- 总结
前言
“史上最全AP、mAP详解与代码实现”文章(这里)已经介绍了map相关原理,且给出相应简单代码实现AP方法。然将AP计算融入模型求解AP结果,可能是一个较为复杂的工程量。我也在http://t.csdnimg.cn/j410Y博客分享基于模型构造一个即插即用计算map的相关模块代码,使用者只需复制我的模块,即可使用。然,之前方法是需要使用xml格式,依然对yolo模型不甚友好,我再此修改为txt方式,使用yolo本身数据实现small、medium、large等相关AP或AP0.75等结果预测。本文将直接介绍计算map核心代码简单列子,在此基础上介绍整个即插即用map计算模块使用方法与代码解读。
该版本是直接使用yolo数据格式实现map计算,集成txt转json格式内容。
 
一、map模块整体认识
本文就是一个detection_map即插即用计算map指标模块,可计算任何模型map指标,但有效计算需要稍微修改部分代码,我后面将介绍。基于此,我将整理一份yolo模型的通用map框架代码。那么,本文将介绍2个内容,其一为简单计算map的一个列子,其原理可参考这里博客;其二为基于yolo模型介绍通用map模块计算方法map_yolo。其整体架构如下图:
 
 注:我使用yolov5-6.1模型,仅将detection_map放入该位置,即可使用。
二、map计算应用代码解读
实现mAP计算,我们需要有已知真实标签与模型预测标签,按照pcocotools的格式生成真实标签与预测标签的json格式,即可实现map指标计算。
from pycocotools.coco import COCO
from pycocotools.cocoeval import COCOeval
if __name__ == "__main__":
    cocoGt = COCO('coco_format.json')        #标注文件的路径及文件名,json文件形式
    cocoDt = cocoGt.loadRes('predect_format.json')  #自己的生成的结果的路径及文件名,json文件形式
    cocoEval = COCOeval(cocoGt, cocoDt, "bbox")
    cocoEval.evaluate()
    cocoEval.accumulate()
    cocoEval.summarize()
介于我在这篇文章这里已有详细介绍,我将不在介绍。我这里只是上传了相应json文件与代码文件供读者快速实现与理解这里。
三、通用map计算指标代码解读
介于我在这篇文章这里已有详细介绍,我将不在介绍,文章参考内容如下图:
 
四、基于yolov5使用通用map计算指标代码解读
这一部分也是本文最重要一部分,实际有关map原理内容或整体模块实现已在我推荐文章中,但推荐文章缺点是没有放置相应代码内容。而该部分就是直接给出基于yolov5模型调用map通用模块实现的相关代码或工程。
1、通用map指标计算模块整体结构说明
构建初始化模型,配置相关参数,直接使用computer_main函数集成,进行推理与map指标计算(整体如下图)。

2、参数构建
我构建模型相关参数,如数据文件夹、权重及推理相关参数,特别是conf阈值与iou阈值需要关注,在yolov5的val.py指标计算设置conf阈值=0.001、iou阈值=0.6,这个根据自己情况而定。
def parse_opt():
    parser = argparse.ArgumentParser()
    parser.add_argument('--source', type=str, default= r'E:\project\data\voc_data\voc2007_data\images\test', help='dataset.yaml path')
    parser.add_argument('--weights', nargs='+', type=str,
                        default=r'E:\project\project_distilation\experiment\runs\train\yolo_x2s_iou-0.45_conf-0.85/weights/best.pt',
                        help='model.pt path(s)')
    parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    parser.add_argument('--conf_thres', type=float, default=0.001, help='confidence threshold,default=0.001')
    parser.add_argument('--iou_thres', type=float, default=0.6, help='NMS IoU threshold,default=0.6')
    parser.add_argument('--imgsz', '--img', '--img_size', type=int, default=640, help='inference size (pixels)')
    parser.add_argument('--save_dir',  default='runs/val_map/exp', help='图像保存路径')
    parser.add_argument('--save_img', default=False, help='保存框图像查看')
    opt = parser.parse_args()
    return opt
3、数据准备
很简单,只要是yolov5格式数据即可,代码会自动将txt内容转为满足pycocotools计算map指标json的json格式。
4、模型初始化
yolov5模型初始化较为简单,直接使用yolov5自带的attempt_load方式初始化模型即可,如下代码:
def init_model(weights):
    model = attempt_load(weights, map_location=device)
    model = model.eval()
    return model
5、map指标计算函数(computer_main)代码解读
我大概描述该函数内容(按步骤说明):
①、获得图像相关路径及指标计算函数初始化
C = Computer_map()
img_root_lst = C.get_img_root_lst(opt.source)  # 获得图片绝对路径与图片产生image_id映射关系
②、获得类别
categories = model.names  
C.get_categories(categories)
③、生成gt的json文件
这个更简单了,和中篇文章不一样就体现在这里,是使用yolo本身txt格式转json,其代码如下:
C.yolov5txt2cocojson(img_root_lst,out_dir=None,save_img=False)
④、图像预处理
for img_path in img_root_lst:
   img0 = cv2.imread(img_path)
   img = letterbox(img0, img_size, stride=stride, auto=True)[0]
   img = img.transpose((2, 0, 1))[::-1]  # HWC to CHW, BGR to RGB
   im = np.ascontiguousarray(img)
   im = torch.from_numpy(im).to(device)
   im = im.float()  # uint8 to fp16/32
   im /= 255  # 0 - 255 to 0.0 - 1.0
   if len(im.shape) == 3:
       im = im[None]  # expand for batch dim
这里图像预处理是调用yolov5的letterbox函数。
⑤、模型推理与后处理
pred = model(im)[0]  
result = non_max_suppression(pred, opt.conf_thres, opt.iou_thres, classes=None,multi_label=True)
det = result[0]
这里仍然是调用yolov5模型与非极大值后处理函数。
⑥、输出尺寸恢复
if len(det)>0:
    det[:, :4] = scale_coords(im.shape[2:], det[:, :4], img0.shape).round()
这里也是调用scale_coords函数恢复预测的box到原图尺寸对应box。
⑦、生成预测json格式文件
det = det.cpu().numpy() if det.is_cuda else det.numpy()  # 处理为cuda上的数据或cpu转numpy格式
det = [[d[0],d[1],d[2],d[3],d[4], categories[int(d[5])] ] for d in det] # 给定名称name标签
# det 格式为列表[x1,y1,x2,y2,score,label],若无结果为空
img_name = C.get_strfile(img_path)
C.detect2json(det, img_name)
这里需要循环推理每个图像预测结果,生成对应满足pycocotools预测json文件格式内容。
当然,我做了是否保存预测图像模块,如果需要使用大致查看预测内容,建议conf与iou阈值试单调整,否则满图都是框。
 if opt.save_img:
     img=draw_bbox(img0,det)
     cv2.imwrite(os.path.join(opt.save_dir,img_name),img)
⑧、map指标计算
循环推理完所有图片,也意味预测json保存完毕,就直接使用gt与pred文件json,调用我集成好的函数,即可实现map指标计算,如下:
C.computer_map()  # 计算map
computer_main代码
这边我给出了类似yolov5保存最佳权重判断指标,具体整个代码如下:
def computer_main(opt, model):
    '''
    data_root:任何文件夹,但必须保证每个图片与对应xml必须放在同一个文件夹中
    model:模型,用于预测
    '''
    stride=32
    img_size=[opt.imgsz, opt.imgsz]
    C = Computer_map()
    img_root_lst = C.get_img_root_lst(opt.source)  # 获得图片绝对路径与图片产生image_id映射关系
    # 在self.coco_json中保存categories,便于产生coco_json和predetect_json
    categories = model.names  # 可以给txt路径读取,或直接给列表  #*********************得到classes,需要更改的地方***********##
    C.get_categories(categories)
    C.yolov5txt2cocojson(img_root_lst,out_dir=None,save_img=False)
    # 产生coco_json格式
    # xml_root_lst = [name[:-3] + 'xml' for name in img_root_lst]
    # for xml_root in xml_root_lst: C.xml2cocojson(xml_root)  # 产生coco json 并保存到self.coco_json中
    if opt.save_img:build_dir(opt.save_dir)
    # 产生预测的json
    for img_path in img_root_lst:
        img0 = cv2.imread(img_path)
        img = letterbox(img0, img_size, stride=stride, auto=True)[0]
        img = img.transpose((2, 0, 1))[::-1]  # HWC to CHW, BGR to RGB
        im = np.ascontiguousarray(img)
        print("图片原始尺寸:{}\t模型预测尺寸:{}".format(img0.shape,im.shape))
        im = torch.from_numpy(im).to(device)
        im = im.float()  # uint8 to fp16/32
        im /= 255  # 0 - 255 to 0.0 - 1.0
        if len(im.shape) == 3:
            im = im[None]  # expand for batch dim
        pred = model(im)[0]  ####**********************需要更改的地方***********************####
        result = non_max_suppression(pred, opt.conf_thres, opt.iou_thres, classes=None, multi_label=True)
        det = result[0]
        # result, classes = parse_result['result'], parse_result['classes']
        if len(det)>0:
            det[:, :4] = scale_coords(im.shape[2:], det[:, :4], img0.shape).round()
        det = det.cpu().numpy() if det.is_cuda else det.numpy()  # 处理为cuda上的数据或cpu转numpy格式
        det = [[d[0],d[1],d[2],d[3],d[4], categories[int(d[5])] ] for d in det] # 给定名称name标签
        # det 格式为列表[x1,y1,x2,y2,score,label],若无结果为空
        img_name = C.get_strfile(img_path)
        C.detect2json(det, img_name)
        if opt.save_img:
            img=draw_bbox(img0,det)
            cv2.imwrite(os.path.join(opt.save_dir,img_name),img)
    map_value = C.computer_map()  # 计算map,返回 [mAP@0.5:0.95, mAP@0.5, mAP@0.75, ... ]
    yolo_best = 0.9*map_value[0]+0.1*map_value[1]
6、基于yolov5的map指标计算代码链接
链接:https://pan.baidu.com/s/1z5tYuYsBtoD3zvipgDKaEA
 提取码:map2
 其结果如下:
 
总结
本文核心是介绍自己构建的map通用框架代码,为介绍该框架,我借助yolov5模型作为基准,一步步阐述如何使用map通用框架指标计算。



















