字节Agent岗三面:你们线上跑了 RAG,那你怎么衡量它的效果好不好?

news2026/5/9 19:33:54
面试官你们线上跑了 RAG那你怎么衡量它的效果好不好‍♂️我我主要看用户反馈有人投诉就说明效果不好没人投诉就还行。面试官靠用户投诉来评估那你等到用户投诉的时候已经有多少人被错误答案坑过了你这叫亡羊补牢不叫效果评估。再说用户不投诉不代表效果好可能人家直接就不用了。‍♂️我那我可以抽查几十条问答人工看看质量怎么样。面试官几十条样本能代表什么而且人工抽查主观性太强不同人标准不一样你换个人来评估结论可能完全不同。我问的是你怎么系统性地、可量化地评估 RAG 的效果能定位到具体哪个环节出了问题。咱们还是来看一下怎么用指标体系来量化 RAG 效果。 简要回答我评估 RAG 效果是分两层来看的。检索层看该召回的有没有召回到我用 HitK 和 MRR 来衡量。生成层看答案对不对、有没有幻觉、和问题相不相关我主要用 RAGAs 框架里面的 Faithfulness、Answer Relevancy 和 Context Recall 这三个指标是最核心的。我的建议是一定要在自己的业务数据上跑不能只看通用排行榜那个不能代表你的场景。另外线上指标就是用户的点踩率、追问率、转人工率这些才是最终的衡量标准离线指标只是辅助。 详细解析什么是 RAG 评估RAG 评估就是用一套可量化的指标体系持续测量 RAG 系统「回答得好不好」并且能把「好不好」这个笼统的感受拆解成具体是哪个环节出了问题。你可能会问为什么非得强调「持续」因为 RAG 系统不是搭完就一劳永逸的。知识库在更新用户的提问方式在变化Embedding 模型可能要换Chunking 策略可能要调每一次改动都可能让效果变好或者变坏。没有评估体系你就是在盲飞不知道自己的优化到底有没有用甚至不知道改完之后系统是变好了还是变差了。为什么需要 RAG 评估很多团队早期不做系统性评估靠「人工抽查几条觉得还行」就上线了。这种方式的问题很明显。首先靠感觉调优没有方向。改了 Chunking 策略、换了 Embedding 模型系统效果有没有提升抽查几条根本说明不了问题样本太少结论不可靠。其次出了问题不知道该查哪里。用户反馈「AI 回答错了」你不知道是检索没召回到正确内容还是召回了但 LLM 编造了额外信息还是 Prompt 设计有问题。没有分层指标排查就靠猜。再者优化后无法验证收益。你花了时间调优但到底优了多少没有数字说话技术决策缺乏说服力也无法判断下一步该在哪里继续投入。RAG 评估的本质是把「这套系统好不好用」这个主观感受转化成一组可以追踪、可以对比、可以指导决策的客观数字。为什么 RAG 评估很难说完为什么需要你可能会想评估嘛不就是对答案吗有什么难的事实上RAG 评估比想象中难做得多。普通分类任务评估很简单有标准答案对比就行。RAG 的评估难在几个地方答案是自然语言没有唯一标准答案出了问题不知道是检索层的锅还是生成层的锅人工标注成本高难以大规模持续做。正确的做法是把评估拆成两层分别衡量检索质量和生成质量定位问题更精准。先看检索层。第一层检索层评估不管 LLM 生成什么先单独评估检索有没有把正确的 chunk 召回来。需要准备一批「问题 对应的正确 chunk ID」的测评数据可以从历史问答里标注也可以让领域专家整理。这一层主要有两个指标。HitK的直觉是我把 Top-K 的检索结果摆在你面前你要找的那个在里面吗如果在这次就算命中Hit。Hit5 就是说把前 5 个结果给你能不能命中最终统计命中率。这个指标回答的是「找到没」的问题不关心找到的是第几名。一般 Hit5 低于 0.7 就说明检索层有问题需要考虑换 Embedding 模型或者优化 Chunking 策略高于 0.8 说明检索层 OK如果答案还不好问题在生成层。MRRMean Reciprocal Rank平均倒数排名更进一步关心的是「你要找的东西排在第几名」。计算公式也很直观就是对每个问题算1 / 排名然后对所有问题求平均。所以第一名找到得 1 分第二名找到得 0.5 分第三名得 0.33 分第五名得 0.2 分排名越靠后得分越低。MRR 越高说明正确内容排名越靠前用户越早看到它。这个指标回答的是「多快找到的」。MRR 低于 0.5 通常说明 Rerank 效果不够好正确内容召回了但没排到前面。很多人容易混淆这两个指标觉得差不多。简单来说HitK 是「找到没」MRR 是「多快找到的」。Hit5 等于 0.9说明 90% 的问题都能在前 5 个结果里找到相关内容但 MRR 只有 0.3说明相关内容虽然找到了但排得很靠后可能第 4、第 5 才出现。配合起来用能精确定位检索层的问题出在哪一步。第二层生成层评估RAGAs 框架检索层评估回答了「找没找到」的问题但找到之后 LLM 有没有好好利用这些内容这就需要生成层评估。RAGAsRetrieval Augmented Generation Assessment是目前使用很广泛的 RAG 端到端评估框架它的核心思路叫做「LLM-as-a-Judge」意思是用 LLM 来当裁判自动给答案打分不需要人工标注每一条大幅降低评估成本。它有四个核心指标分别是 Faithfulness、Answer Relevancy、Context Recall 和 Context Precision每个都有直观的理解方式下面挨个讲。Faithfulness忠实度答案里说的每件事在检索到的 chunk 里有没有出处这个指标衡量的是幻觉程度。你可以把它理解为「LLM 裁判」在逐句问「这句话你从哪条资料里找到的依据」没有依据的句子越多分越低。目标值是 0.8。Answer Relevancy答案相关性答案有没有回答用户问的那个问题注意这个指标和 Faithfulness 是两回事很多人会把它们搞混。Faithfulness 是问「说的是不是真的」Answer Relevancy 是问「说的是不是用户想要的」。一个答案可以字字有据、但完全跑题Faithfulness 高、Answer Relevancy 低。打个比方你问「北京天气怎么样」AI 回答了一篇关于北京历史的资料内容全是对的但和天气没有半毛钱关系这就是 Faithfulness 高、Answer Relevancy 低。目标值是 0.8。Context Recall上下文召回率要回答这个问题所需要的信息有多少比例在检索结果里覆盖到了这个指标需要有「标准答案」作为参照衡量的是检索层有没有「漏掉该找到的内容」。目标值是 0.7。Context Precision上下文精确率这个指标和 Context Recall 配对出现衡量的是检索结果里「有用的内容」排名是否靠前。也就是说如果你召回了 10 个 chunk相关的那几个有没有被排在前面而不是混在无关内容的后面。它同样需要 ground_truth 作为参照计算。Context Recall 关注「该找的有没有找全」Context Precision 关注「找到的里面相关的是不是排在前面」两个配合能完整刻画检索质量。需要注意的是RAGAs 本质上是「LLM-as-a-Judge」每次评估都要调用 LLM 来打分。如果测试集有几千条全量跑一遍的 token 消耗和时间成本相当可观。工程上通常有两种缓解方式一是对核心测试集抽样评估只跑最有代表性的 200500 条二是把评判者模型从 GPT-4o 降级到 GPT-4o-mini成本降低 10 倍精度损失在可接受范围内。通过指标定位问题有了这些指标怎么用它们来定位问题不同指标低说明不同的问题指导优化方向。Context Recall 低你可以把它理解为「检索结果里缺少了答好这道题必要的信息」说明检索层没召回到正确内容优化方向是换更强的 Embedding 模型、调整 Chunking 策略、或者加多路召回来补充覆盖面。Context Precision 低说明检索召回了太多噪音相关内容是找到了但不相关的内容也混进来了把 LLM 的注意力稀释掉了优化方向是加强 Rerank 模型、调低最终送给 LLM 的 chunk 数量。Faithfulness 低说明 LLM 在编造幻觉问题多你回答里说的东西在参考资料里找不到依据优化方向是加强 Prompt 约束、引入引用核查、或者做检索质量门控防止低质量上下文进入生成阶段。Answer Relevancy 低说明答案跑题了没有聚焦在用户问的问题上通常是 Prompt 的指令不够明确告诉 LLM「请严格回答问题本身不要展开无关内容」往往就能改善。线上指标最终衡量标准上面说的都是离线指标但离线指标再好最终还是要看线上用户的反应。毕竟离线跑得再漂亮用户不满意也是白搭。几个实用的线上指标每一个都能反映 RAG 系统的某个方面。踩率thumbs_down_rate是最直接的信号用户主动点踩说明这次回答让他不满意是最真实的负反馈。追问率followup_rate反映的是「答非所问」的程度用户紧接着说「你没回答我的问题」或者追问同一个问题通常意味着上一次回答没用。转人工率escalation_rate衡量的是「RAG 放弃回答」的频率这个比例太高说明知识库覆盖不足但如果这个比例因为加了质量门控而上升不一定是坏事宁可转人工也不要给用户错误答案。空回答率answer_empty_rate就是系统主动说「我不知道」的比例过高说明知识库亟需扩充。会话解决率session_resolution_rate是最综合的指标衡量「一次对话能不能解决用户的问题」是最贴近用户体验的衡量维度。离线评估HitK RAGAs用来快速迭代和定位问题线上指标踩率、转人工率是最终验收标准。两者结合形成「离线测评 - 上线 - 线上观测 - 发现问题 - 离线复现 - 修复 - 再上线」的完整评估闭环。这里还要提醒一点离线指标好不代表线上一定好反过来也一样。常见的情况是离线测试集不能完整代表真实用户分布或者离线指标优化过头反而损害了线上体验比如为了 Faithfulness 把 Prompt 收得太死结果模型回答过于保守、用户觉得不好用。所以两者要定期交叉对照发现偏差时往往是测试集需要更新或者指标权重需要调整。把几个核心指标和它们的含义整理成表方便对照排查指标属于哪层衡量什么低了说明什么HitK检索层正确 chunk 是否被召回Embedding 或 Chunking 有问题MRR检索层正确 chunk 的排名是否靠前Rerank 效果差Context Recall生成层输入检索内容覆盖了多少正确信息多路召回不足Context Precision生成层输入检索内容里噪音多不多Rerank 没过滤掉无关内容Faithfulness生成层答案有没有幻觉Prompt 约束不足或检索质量差Answer Relevancy生成层答案和问题相不相关Prompt 写法问题踩率 / 转人工率线上用户实际满意度整体系统效果综合反映 面试总结回到开头的问题RAG 效果评估不能靠「用户投诉」或「人工抽查」这种事后手段而是要建立一套分层的量化指标体系。检索层用 HitK 和 MRR 衡量召回质量生成层用 RAGAs 框架的 Faithfulness、Answer Relevancy、Context Recall 来衡量答案质量线上再用点踩率、转人工率等业务指标做最终验收。通过不同指标的组合可以精确定位问题是出在检索层还是生成层让优化有方向、有数据支撑而不是凭感觉瞎调。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598470.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…