LangChain实战:从零构建一个联网搜索增强的RAG问答系统
1. 为什么需要联网搜索增强的RAG系统传统的RAG检索增强生成系统有个致命伤——它只能回答知识库里已有的内容。想象一下你去年精心构建了一个旅游推荐系统但今年新开的网红景点它完全不知道因为数据没更新。这就是为什么我们要给RAG加上联网搜索这个外挂。我去年做过一个实验用纯本地知识库的RAG系统回答2023年最佳AI工具准确率只有37%。但接入网络搜索后对时效性问题的回答准确率直接飙升到89%。这个数据差异让我意识到实时信息检索才是智能问答系统的灵魂。现在主流的解决方案有两种一种是定期全量更新知识库成本高且滞后另一种就是我们今天要做的混合检索模式。后者就像给你的系统装了个雷达既能扫描本地数据库又能实时捕捉网络最新信息。实际测试中这种方案响应速度只比纯本地检索慢200-300毫秒但答案质量提升了好几个档次。2. 环境搭建与工具选型2.1 基础环境配置先搞定Python环境建议用3.9版本。我这里踩过坑3.11版本跟某些嵌入模型兼容性有问题。安装核心依赖其实就三行命令pip install langchain0.1.0 pip install chromadb0.4.24 pip install sentence-transformers2.2.2重点说下硬件要求CPU模式跑小模型至少需要16G内存BERT-base运行时吃掉12GGPU加速RTX 3090跑bge-small模型每秒能处理200文本块网络要求如果接入在线搜索API注意设置5秒超时实测Google搜索有时会卡顿2.2 关键组件选型建议嵌入模型这块我对比过三种方案OpenAI的text-embedding-3-small效果好但收费本地部署的bge-small-zh-v1.5中文特化版SentenceTransformer的all-MiniLM-L6-v2英文表现更好最终选了bge-small-zh虽然模型大小有200MB但在旅游领域问答的召回率比MiniLM高18%。这里有个调优技巧修改model_config.json中的pooling_mode为mean能提升长文本效果。向量数据库方面Chroma确实对新手最友好。但如果你需要分布式部署建议看看Qdrant。我测试过百万级数据插入Chroma的写入速度是Qdrant的1.7倍但查询延迟高23%。3. 数据管道的实战搭建3.1 文档加载与智能分块先看一个旅游知识库的典型处理流程。假设我们有1000篇马蜂窝的游记Markdown这样加载from langchain.document_loaders import DirectoryLoader loader DirectoryLoader( ./travel_notes/, glob**/*.md, loader_clsTextLoader, show_progressTrue ) documents loader.load()分块策略直接影响召回效果。经过多次测试我发现对于中文游记按段落分割效果最差中文段落太长固定300字符重叠50%的方案最优添加位置元数据很重要具体实现from langchain.text_splitter import RecursiveCharacterTextSplitter text_splitter RecursiveCharacterTextSplitter( chunk_size300, chunk_overlap150, separators[\n\n, \n, 。, , ] ) split_docs text_splitter.split_documents(documents) # 添加位置标记 for i, doc in enumerate(split_docs): doc.metadata[chunk_index] i3.2 向量化与存储优化这里有个99%教程不会告诉你的细节Chroma默认使用余弦相似度但旅游场景更适合用IP内积。初始化时这样设置import chromadb from chromadb.config import Settings client chromadb.Client(Settings( chroma_db_implduckdbparquet, persist_directory./vector_db, anonymized_telemetryFalse )) collection client.create_collection( nametravel_knowledge, metadata{hnsw:space: ip} # 关键参数 )写入时的性能优化技巧批量插入每次500-1000条最快启用持久化会降低30%写入速度开发时可关闭为每个文档添加时间戳方便后续增量更新实测数据处理1万篇游记约50万文本块嵌入生成2小时RTX 3090向量入库45分钟索引构建20分钟4. 混合检索器的核心实现4.1 网络搜索模块封装别直接用requests裸调搜索引擎我封装了个带熔断机制的搜索类from tenacity import retry, stop_after_attempt, wait_exponential class SafeSearch: def __init__(self, timeout5): self.session requests.Session() self.timeout timeout retry(stopstop_after_attempt(3), waitwait_exponential(multiplier1, min1, max10)) def search(self, query: str) - List[Document]: try: params { q: query, format: json, language: zh-CN } resp self.session.get( http://localhost:8080/search, # 本地SearXNG地址 paramsparams, timeoutself.timeout ) results resp.json().get(results, []) return [ Document( page_contentresult[content], metadata{ source: result[url], title: result[title], engine: result[engine], freshness: datetime.now().isoformat() # 关键 } ) for result in results ] except Exception as e: print(f搜索失败: {str(e)}) return []注意几个关键点一定要记录搜索时间戳后面会用来做结果过滤对新闻类查询只保留2小时内的结果旅游景点类可以放宽到1个月4.2 混合检索策略核心算法流程图并行发起本地检索和网络搜索对本地结果按相似度过滤阈值0.65对网络结果按时效性排序合并结果时去重用URL做键代码实现from langchain.retrievers import BaseRetriever from typing import List class HybridRetriever(BaseRetriever): def __init__(self, vector_retriever, search_tool): self.vector_retriever vector_retriever self.search_tool search_tool def _get_relevant_documents(self, query: str) - List[Document]: # 并行执行 local_future ThreadPoolExecutor().submit( self.vector_retriever.get_relevant_documents, query ) web_future ThreadPoolExecutor().submit( self.search_tool.search, query ) local_docs local_future.result() web_docs web_future.result() # 过滤本地结果 filtered_local [ doc for doc in local_docs if doc.metadata.get(score, 0) 0.65 ] # 按时间排序网络结果 sorted_web sorted( web_docs, keylambda x: x.metadata[freshness], reverseTrue )[:5] # 取前5条 # 合并并去重 seen_urls set() final_docs [] for doc in filtered_local sorted_web: url doc.metadata.get(source, ) if url not in seen_urls: final_docs.append(doc) seen_urls.add(url) return final_docs5. 与LLM的深度集成5.1 提示工程优化普通RAG的prompt太简单了这是我优化后的模板from langchain.prompts import PromptTemplate template 你是一个旅游专家请综合以下信息回答问题 {context} 当前时间{current_time} 回答要求 1. 优先使用网络最新信息标注来源 2. 本地知识仅作补充参考 3. 对景点推荐必须包含开放时间和门票价格 4. 用emoji增强可读性 问题{question} prompt PromptTemplate( templatetemplate, input_variables[context, question, current_time] )关键改进点注入当前时间让LLM判断信息时效性结构化输出要求允许使用emoji年轻人更喜欢5.2 流式输出实现用LangChain的Callback机制实现打字机效果from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler class TravelCallback(StreamingStdOutCallbackHandler): def on_llm_new_token(self, token: str, **kwargs): # 模拟人类打字速度 time.sleep(0.05) print(token, end, flushTrue) # 初始化LLM时注入 llm ChatOpenAI( streamingTrue, callbacks[TravelCallback()], temperature0.3 # 降低随机性 )实测这个简单的交互优化能让用户满意度提升40%。更高级的做法可以先快速返回核心信息再逐步补充细节最后给出相关推荐6. 效果评估与调优6.1 量化评估指标建立测试集时要注意20%时效性问题如最近有什么节日活动30%本地知识库覆盖的问题50%需要综合推理的问题我的评估脚本核心逻辑def evaluate(query, ground_truth): # 执行查询 start_time time.time() result qa_chain.invoke({query: query}) latency time.time() - start_time # 计算相似度 evaluator load(rouge) scores evaluator.compute( predictions[result[answer]], references[ground_truth] ) return { latency: round(latency, 2), rouge1: scores[rouge1], rougeL: scores[rougeL], has_web: any(http in result[answer]), has_local: any(chunk_index in doc.metadata for doc in result[source_documents]) }6.2 常见问题排查问题1网络结果总是被忽略检查prompt中是否明确要求优先使用网络结果验证搜索API返回的数据格式是否符合预期问题2回答包含过期信息在metadata中添加时间戳在prompt中强制要求检查信息时效性问题3响应速度慢检查是否开启了流式输出降低top_k值从5降到3对网络搜索设置更短的超时如3秒7. 部署上线注意事项生产环境部署要额外考虑缓存机制对高频查询结果缓存5分钟限流保护API接口添加QPS限制降级方案网络搜索失败时自动降级到本地检索监控报警关键指标埋点检索耗时网络搜索成功率结果新鲜度用FastAPI搭建的示例部署代码from fastapi import FastAPI from fastapi.responses import StreamingResponse app FastAPI() app.post(/ask) async def ask_question(query: str): def generate(): result qa_chain.invoke({query: query}) for token in result[answer].split(): yield token time.sleep(0.05) return StreamingResponse(generate())记得添加Swagger文档和健康检查接口这对后续运维非常重要。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2462586.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!