腾讯:揭示评估幻觉并构建知识驱动新范式
标题Beyond the Illusion of Consensus: From Surface Heuristics to Knowledge-Grounded Evaluation in LLM-as-a-Judge来源arXiv, 2603.11027v1摘要LLM-as-a-judge的范式依赖于一个关键假设即评价者之间的高度一致表明评价是可靠和客观的。我们提出了两个互补的发现来挑战这一假设。首先我们证明这种共识经常是虚幻的。我们识别并形式化评价幻觉这是一种现象LLM法官产生复杂的批评但将分数锚定在共同的表面启发式而不是实质性质量上。通过对105,600个评估实例32个LLM×3个前沿法官×100个任务×11个温度的大规模研究我们发现模型级协议Spearmanρ0.99掩盖了脆弱的样本级协议Pearson r0.72绝对协议ICC0.67仅仅共享规则结构就恢复了总协议的62%而高质量的输出反而得到了最不一致的评估。其次我们证明了基于领域知识的动态生成评估规则会产生更有意义的评估。我们引入了MERG元认知增强规则生成这是一个知识驱动的规则生成框架其领域选择效应证实了这一点。在知识将评估者锚定在共享标准上的编纂领域教育22%学术27%一致性增加而在真正的评估多元化出现的主观领域一致性减少。这些发现表明评估标准应该用专家知识动态丰富而不是依赖通用标准这对RLAIF中的奖励建模有影响。️文章简介研究问题大模型作为裁判时表现出的高一致性究竟反映了真实的质量共识还是基于表面启发式规则的虚假幻觉主要贡献论文形式化了“评估幻觉”概念揭示了现有共识的脆弱性并提出 MERG 框架证明引入领域知识能产生更具实质意义的评估。重点思路提出“评估幻觉”理论指出多个裁判的高分一致往往源于对格式、语气等表面特征的共享偏好而非对内容实质的共同理解。设计 MERG元认知增强评分标准生成框架强制裁判在打分前激活领域知识并反思自身偏见从系统一快思考转向系统二慢思考。开展大规模实验涉及 32 个模型、3 个前沿裁判及 10 万多次评估实例通过对比基线与 MERG 结果来诊断共识的真实来源。利用消融实验分离评分标准结构的影响量化了仅共享维度名称即可恢复大部分一致性证明现有可靠性多为仪器 artifacts。分析总结注入领域知识后裁判间的一致性显著下降降低 21%-34%证实基线共识主要由表面启发式驱动而非真实 deliberation。一致性变化具有领域选择性在教育和学术等有明确标准的领域知识注入提升了一致性而在文学等主观领域则降低了虚假共识。发现“分辨率悖论”即模型层面的排名相关性极高0.99但样本层面的绝对一致性较低0.72高分输出反而最难获得一致评价。评分标准的结构本身解释了约 62% 的一致性表明文献中报告的高可靠性很大程度上是共享评估工具的人为产物。个人观点论文颠覆了“高一致性即高可靠性”的传统假设指出了当前自动化评估中存在的“共谋式浅层共识”发现高质量输出的评估最容易陷入幻觉。附录
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2442004.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!