技术爬坡
长文本的技术爬坡方向
-  推理质量不能有所下降,如何在保质保量的做长文本的推理,是一件非常困难的事。 
-  解决了能力问题之后,还要解决贵且慢的问题。前面讲到两个瓶颈,一个是推理成本会特别高,一个是首token会特别慢。在一个阶段解决好这两个问题之后,待上下文窗口再提升到下一个里程碑,这两个问题又会出现。 
-  但还是要持续去研究expand context window, 因为有一个现象表明,当长文本能力上去之后,有很多附带的能力会涌现出来。 
-  具体到以后长度能到多长,现在行业没有共识。具体的技术,从实验室环境到真正的生产环境,会有很大的gap。10 Million 的模型, 100 Million的模型可能已经有了,但是可能推不到生产。主要是延迟特别高,或者精度特别的差。 

RAG的技术爬坡方向
-  整个链路变得更长了,远远比半年之前变得更复杂,开始有更多的技术栈被加入进来。 
-  大概 6- 12 个月之前,市场对于 RAG 的印象是:先embedding 模型抽象出一个向量,然后导入向量数据库里边,然后搜索出向量背后代表的短文本块,放入大语言模型。 
-  6个月之前,甚至三五个月之前 


















