长文本(Long Context)会终结 RAG?先把这两个概念搞清楚
上个月跟一个创业的朋友聊天,他兴奋地跟我说:“我们公司准备全面切换到 Long Context 了,RAG 那套太麻烦,直接把所有文档喂给大模型,省事!”我当时没反驳,但心里咯噔了一下。结果前两天再聊,他苦着脸说:“不行,问它Q3哪个项目利润最高,它把Q1的数据给我安了个名头。”你看,这就是 Long Context 最容易让人掉进去的甜蜜陷阱。你真的理解 Long Context 吗?先说说什么是 Long Context。就是你跟大模型说话的时候,它现在能"记住"的东西越来越多了。以前你喂它一篇论文,它只能看前几页;现在某些模型能一次吃进去上百万个 Token,相当于一本《战争与和平》扔进去,它全都能读完。听起来很厉害对不对?但问题来了——能读完 ≠ 能用好。我给你打个比方。你花了一整年跟一个项目团队,开了大大小小几十次会议,记了几百页的会议纪要。现在我问你:“去年7月15日那个项目启动会,老王提到的第三个风险点是什么?”你翻了半天笔记,找到了,但回答得很犹豫:“好像是……资金流那个?”但如果我换种问法:“去年所有会议里,关于资金流风险的讨论,最后结论是什么?”你可能就得把全年记录全翻一遍,脑子一团浆糊。大模型面对长文本,某种程度上就是这样。它看到了每一个字,但你问它一个精确问题的时候,它的回答质量取决于那个信息在文本里"藏得有多深"。这就是为什么有个著名的测试叫"大海捞针"(needle-in-a-haystack)——把一根"针"混进一吨"稻草"里,让模型去找。测试结果很有意思:模型对不同位置的信息,召回率差异巨大。开头和结尾的信息它记得最清楚,
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2584085.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!