一种半自动交通标注的混合框架:将 YOLOv11 目标检测与 CLIP 语义验证相结合
原文地址本文仅作翻译学习使用如遇侵权请联系本人删除Original content. This article is only for translation learning purposes. If there is any infringement, please contact me to delete it.A Hybrid Framework for Semi-Automated Traffic Annotation: Integrating YOLOv11 Object Detection with CLIP Semantic Verification | IEEE Conference Publication | IEEE Xplore在交通分析等领域大规模数据集的标注仍然是一个劳动密集型且容易出错的过程标注错误往往导致深度学习性能欠佳。为解决这一挑战我们引入了一种半自动标注系统该系统将YOLOv11的目标检测能力与CLIPViT-B/32的语义验证能力相结合。在我们的框架中YOLOv11首先生成目标标签随后由CLIP进行验证和校准。超过置信度阈值的标签被保留而不确定的情况则使用CLIP进行修正并由终端用户进行最终验证。这一流程显著减少了人工标注工作量同时确保了标注质量的一致性。我们在混淆表征、损失、精确率、召回率、平均精度均值mAP以及置信度结果等方面对系统性能进行了评估。实验结果表明所提出的系统实现了超过90%的准确率有效利用了YOLOv11在图像检测和CLIP在多模态语义理解方面的互补优势。该方法为大规模交通数据集标注提供了实用的解决方案在效率与可靠性之间取得了平衡。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2416589.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!