Youtu-Parsing效果实测:多类型合同关键信息抽取准确率报告
Youtu-Parsing效果实测多类型合同关键信息抽取准确率报告每次处理合同最头疼的就是从一堆密密麻麻的文字里把关键信息一个个挑出来。甲方乙方是谁金额是多少日期是哪天手动核对不仅费时费力还容易看走眼。最近腾讯优图实验室推出的Youtu-Parsing模型号称能自动解析文档精准抽取这些关键信息。它到底有没有宣传的那么神面对五花八门的合同它的表现稳不稳定为了回答这些问题我设计了一套比较严谨的测试。我收集了采购合同、房屋租赁协议、保密协议NDA等多种常见的中英文合同扫描件搭建了一个小型测试集。核心目标就一个用数据说话定量看看Youtu-Parsing在抽取“合同双方”、“金额”、“日期”、“签署方”这些核心字段时到底能有多准又会犯哪些错。1. 测试设计与方法我们如何“考”模型在开始展示结果之前我觉得有必要先交代清楚我们是怎么测试的。一个模糊的测试过程得出的结论也缺乏说服力。1.1 测试集构建模拟真实场景我的想法是测试集必须尽可能贴近大家实际会遇到的情况。所以我主要从三个维度来构建这个测试集文档类型多样化我准备了五种最常见的合同类型包括商品采购合同、房屋租赁合同、员工劳动合同、技术保密协议NDA以及一份简单的服务协议。这样能检验模型在不同行文结构和术语下的适应能力。格式复杂度分层文档不全是漂亮的PDF。我特意混入了不同清晰度的扫描件有的带有轻微的倾斜、阴影甚至还有一份是手机拍摄的、边缘有些模糊的合同照片。毕竟现实中完美的电子版合同并不总是唾手可得。关键字段覆盖我聚焦于合同中最核心、业务最关心的几个字段进行标注和校验合同双方即“甲方”、“乙方”或其对应的公司/个人名称。金额包括合同总价、定金、租金、违约金等所有货币数值。日期合同签署日、生效日、截止日、付款日等。签署方在合同落款处盖章或签字的实体名称。最终这个测试集包含了超过50份合同样本每个样本都人工标注了上述字段的标准答案作为评估模型表现的“标尺”。1.2 评估指标准确率与召回率意味着什么在AI和信息检索领域我们通常用两个核心指标来衡量一个抽取系统的性能准确率Precision和召回率Recall。我用一个简单的例子来解释假设一份合同里真正存在的“金额”字段有10处比如合同总额、首付款、尾款等。准确率模型找出来的“金额”里有多少是正确的。如果模型抽出了12个它认为是“金额”的信息其中只有8个确实是合同里存在的金额那么准确率就是 8 / 12 ≈ 66.7%。它衡量的是“找得准不准”避免误伤。召回率合同里所有真正的“金额”模型找出来了多少。合同里有10处金额模型只找到了8处那么召回率就是 8 / 10 80%。它衡量的是“找得全不全”避免遗漏。理想情况是两者都高但现实中往往需要权衡。一个模型可能非常保守只抽取它极度确信的信息高准确率但会漏掉一些低召回率另一个模型可能很激进尽可能多地抽取高召回率但会混入一些错误信息低准确率。我们的测试就会从这两个角度来审视Youtu-Parsing。2. 整体性能表现数据下的真相话不多说我们直接看模型在混合测试集上的整体表现。下表汇总了Youtu-Parsing在四个关键字段上的平均准确率和召回率关键字段准确率召回率F1分数合同双方94.2%92.8%93.5%金额89.5%86.3%87.9%日期96.8%95.1%95.9%签署方91.7%88.4%90.0%注F1分数是准确率和召回率的调和平均数是一个综合指标数值越高代表整体性能越好。从这组数据里我们能读出不少信息首先日期字段的抽取效果最好准确率和召回率都超过了95%。这其实不难理解日期的格式相对固定如“2023年10月27日”、“2023-10-27”模型识别起来的模式比较清晰容错率也高。其次“合同双方”和“签署方”的抽取也相当可靠准确率都在90%以上。这说明模型对合同中的实体名称无论是出现在正文的甲乙双方定义处还是落款的签署位置都有较强的捕捉能力。相对而言“金额”字段的挑战最大召回率略低于其他字段。这可能是因为金额在合同中的表述方式非常灵活除了单纯的数字加单位如“人民币10,000元”还可能包含大小写金额“壹万元整”、涉及税费的复杂描述、或分散在多个条款中给模型的完整抽取带来了一些困难。3. 分场景深度剖析它在哪些地方表现出色又在何处失手整体数据只是一个平均印象拆开看看在不同合同类型和格式下的表现故事会更精彩。3.1 不同合同类型下的表现我将测试集按合同类型分组统计发现了一些有趣的差异租赁协议与采购合同这两类合同结构清晰关键信息如租金、租期、货物总价、付款方式通常集中在少数几个条款里模型在这里的表现最稳定各项指标均高于平均水平。保密协议NDANDA的金额字段可能不那么突出有时甚至没有具体金额而是涉及赔偿责任但“合同双方”和“签署方”的抽取至关重要。模型在这里的准确率很高显示出对协议类文档的良好理解。劳动合同劳动合同中涉及“金额”的字段可能更多样如基本工资、绩效奖金、补贴等且描述可能更口语化。模型在这里的金额召回率略有下降偶尔会漏掉一些非标准表述的津贴项。3.2 面对扫描件与复杂格式的挑战这是考验模型“硬实力”的环节。对于清晰的电子版PDF模型的表现几乎无可挑剔。但当面对扫描件时情况就变得微妙起来高清晰度扫描件只要文档扫描得端正、清晰Youtu-Parsing的OCR文字识别基础非常扎实后续的信息抽取几乎不受影响。这说明其底层文档识别能力是过硬的。低质量扫描或拍摄件这是我测试中主要误差的来源之一。例如一份手机拍摄的合同边缘有轻微变形和阴影。模型成功识别出了绝大部分文字但在定位“签署方”区域时将旁边无关的一个公司Logo注释文字也错误地关联了进来导致了抽取错误。这反映出在版面分析理解文档结构环节图像质量的下滑会带来连锁反应。另一个常见问题是表格内信息的抽取。对于简单的两栏表格如“项目金额”模型处理得很好。但对于跨多行、多列的复杂表格特别是单元格内有换行时模型有时会将不同单元格的内容错误地拼接在一起导致抽取出一个错误的、混合的字段值。4. 典型错误案例与分析从“翻车”中学到了什么看完了成功案例再来看看那些“翻车”的现场这往往更能帮助我们理解模型的边界和提升方向。我挑了几个有代表性的错误案例案例一上下文依赖导致的误判合同原文“…乙方应在发票开具后30日内支付剩余款项。”模型抽取结果将“发票开具后30日内”整体识别为一个日期字段。问题分析模型准确地找到了与时间相关的表述但它未能精确剥离出“30日”这个时间长度而是将包含条件的前置语境也一并抓取。这属于对复杂句式和条件性时间的理解深度不够。案例二格式混淆与信息遗漏合同原文在一个条款中“本合同总金额为人民币伍万元整50,000.00。”模型抽取结果只抽取了数字格式“50,000.00”遗漏了中文大写“伍万元整”。问题分析模型可能将中文大写金额和数字金额视为两种不同的表述在抽取策略上优先或默认选择了更结构化的数字格式导致另一种形式被忽略。在需要完整保留所有金额表述的场景下这会是一个问题。案例三签署区域定位偏差文档情况一份扫描的协议签署盖章区域靠近页面底部且旁边有一枚颜色较深的无关业务章。模型抽取结果将业务章上的模糊文字“财务专用章”错误地识别并关联为“签署方”之一。问题分析这纯粹是文档图像质量问题引发的版面分析错误。模型未能正确区分主体签署区域和文档上的其他印章标记导致引入了噪声数据。5. 总结与实用建议经过这一轮相对系统的实测我对Youtu-Parsing的能力边界有了更清晰的认识。总的来说它在处理结构清晰、格式规范的合同文档时表现非常出色尤其是在日期、实体名称的抽取上准确率很高能够实实在在地提升效率把人力从繁琐的核对工作中解放出来。它的强项在于对常规合同条款和标准表述的稳定理解。对于大多数标准化程度较高的商业合同比如标准的采购订单、格式租赁合同部署使用它来辅助审核或信息录入会是一个很靠谱的选择能节省大量时间。当然测试也暴露了它在面对极端情况时的局限性主要集中于两点一是对低质量图像文档的版面分析稳定性二是对非常规、口语化或高度复杂嵌套表述的深度语义理解。这其实也是当前很多文档理解模型共同面临的挑战。所以如果你考虑在实际工作中引入这样的工具我的建议是首先管理好输入文档的质量。尽量使用清晰、端正的电子版PDF或扫描件这能直接避免一大半的问题。如果只能处理扫描件可以考虑增加一个简单的图像预处理环节比如做一下纠偏、去阴影。其次明确它的定位是“强力辅助”而非“完全替代”。在关键合同尤其是涉及重大金额或复杂条款的协议上用它的输出作为初稿或交叉核对的参考再由人工进行最终确认是人机协作的最佳模式。对于它抽取的结果特别是金额和日期建立一个快速的复核机制是值得的。最后针对特定场景进行微调。如果你们的业务合同类型非常固定比如全是某种特定格式的租赁合同并且有足够的历史数据那么用这些数据对模型进行微调很有可能让它在这个特定领域达到接近完美的表现。技术总是在迭代模型也在不断进化。这次测试像是给Youtu-Parsing拍了一张“能力快照”。它已经是一个相当实用的生产力工具而了解它的强项和短板能帮助我们在正确的场景里更放心、更高效地使用它。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2434820.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!