玩转AI!用FastAPI+RAG轻松构建智能文档问答系统,代码、文档全公开!
在企业数字化转型的浪潮中我们常遇到这样一个痛点海量的业务文档、研究报告、技术手册堆积如山当需要从中寻找某个特定答案时员工往往要花费数小时甚至数天进行翻阅。这不仅是效率的浪费更是知识资产沉睡的体现**点击文末“阅读原文”获取完整智能体、代码、数据、文档。**本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验该项目完整代码已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察可与900行业人士交流成长还提供人工答疑拆解核心原理、代码逻辑与业务适配思路帮大家既懂 怎么做也懂 为什么这么做遇代码运行问题更能享24小时调试支持。本文将引导您一步步构建一个基于FastAPI的RAG检索增强生成 系统。我们会先梳理RAG的核心概念与FastAPI的优势随后深入代码实现打造一个能够接收PDF或TXT文档、对其内容进行索引、并回答用户问题的API服务。最后我们还会探讨HTTP状态码的工程意义并展望系统的优化方向。理解REST APIREST API 是一种接口用于在客户端和服务器之间建立通信。REST API 是 Representational State Transfer API 的缩写。客户端可以向特定的 API 端点发送 HTTP 请求服务器负责处理这些请求。存在不少HTTP方法。其中几项我们会用FastAPI在项目中实现。HTTP 方法检索增强生成与FastAPI为何是黄金组合在我们动手之前先来理解两个核心概念RAG和FastAPI并探讨为什么它们是天作之合。什么是RAGRAG即检索增强生成是一种让大语言模型 能够利用外部知识库的技术。它就像一个开卷考试的学生面对问题查询他首先快速翻阅参考资料检索相关文档片段然后结合资料和自己的理解组织出一个精准的回答生成。RAG的核心由两部分构成检索器负责根据用户问题从文档库中快速找到最相关的信息片段。生成器大语言模型将检索到的信息片段作为上下文结合问题生成最终答案。这种架构有效解决了大语言模型知识截止、幻觉等问题是连接通用大模型与私有数据的最佳桥梁。– 为本项目创建一个虚拟环境以隔离项目的依赖关系。为什么选择FastAPIFastAPI是一个现代、高性能的Python Web框架专为构建API而生。它在本次项目中的优势显而易见自动生成交互式文档只需编写代码FastAPI就能自动生成Swagger UI我们可以在浏览器中直接测试API无需额外开发前端。基于Python类型提示利用Pydantic模型它能自动进行请求体验证和序列化减少大量模板代码。异步支持天然支持异步请求处理非常适合I/O密集型任务如文件读取和网络调用。高性能得益于Starlette和Pydantic其性能可与Node.js、Go相媲美。结合RAG与FastAPI我们可以快速将一个智能文档问答 系统封装成易于集成的API服务。项目实战打造文档智能问答API接下来我们进入核心环节——代码实现。我们的目标是创建两个API端点/ingest接收用户上传的PDF或TXT文档将其分块、向量化并存入FAISS索引。/query接收用户问题检索相关文档块并调用大语言模型生成答案。环境准备与依赖安装首先确保您已完成以下准备工作获取OpenAI API密钥并在项目根目录创建.env文件添加plaintextOPENAI_API_KEY您的密钥创建并激活Python虚拟环境安装依赖库。requirements.txt内容如下版本号已做调整确保兼容性fastapi uvicorn[standard] python-multipart langchain langchain-community langchain-openai faiss-cpu openai pypdf python-dotenv 一键获取完整项目代码使用命令pip install -r requirements.txt一键安装。核心模块rag_pipeline.py这个脚本封装了RAG的所有核心逻辑包括文档加载、文本分块、向量存储、检索与生成。我们将代码模块化便于维护和调用。# 全局向量存储对象用于跨请求共享 vector_store: FAISS | None None embeddings OpenAIEmbeddings(modelEMBEDDING_MODEL_NAME) def _load_vector_store() - FAISS | None: 从本地磁盘加载已存在的FAISS索引。 global vector_store if vector_store is None and os.path.exists(VECTOR_STORE_PATH): vector_store FAISS.load_local( VECTOR_STORE_PATH, embeddings, allow_dangerous_deserializationTrue ) return vector_store def process_document(file_path: str, display_filename: str ) - int: 处理上传的文档加载、分块、向量化并存入FAISS。 返回被索引的文本块数量。 global vector_store # 1. 根据文件扩展名选择加载器 iffile_path.endswith(.pdf): loader PyPDFLoader(file_path) else: loader TextLoader(file_path) documents loader.load() # 为所有文档块添加来源文件名 source_name display_filename or os.path.basename(file_path) for doc in documents: doc.metadata[source] source_name # 2. 文本分块 splitter RecursiveCharacterTextSplitter( chunk_sizeCHUNK_SIZE, chunk_overlapCHUNK_OVERLAP, separators[\n\n, \n, ., , ] ) chunks splitter.split_documents(documents) # 代码中省略了部分错误处理和细节优化完整代码请进群获取。 ...... 一键获取完整项目代码API服务main.py现在我们使用FastAPI将上述功能暴露为RESTful API。这里定义了请求/响应模型和三个端点。import os import tempfile from fastapi import FastAPI, UploadFile, File, HTTPException from pydantic import BaseModel from rag_pipeline import process_document, query_rag app FastAPI( title文档智能问答API, description上传文档并进行检索增强生成式问答, version1.0.0 ) # 允许的文件类型 ALLOWED_FILE_TYPES { application/pdf: .pdf, text/plain: .txt, } classQueryRequest(BaseModel): question: str top_k: int 4 classQueryResponse(BaseModel): answer: str sources: list[str] app.get(/health, tags[系统状态]) asyncdefhealth_check(): 健康检查端点用于确认服务是否运行。 return {status: running} app.post(/ingest, tags[文档处理]) asyncdefingest_document(file: UploadFile File(...)): 上传文档.txt 或 .pdf系统将自动进行分块、向量化并存储。 if file.content_type notin ALLOWED_FILE_TYPES: # 代码中省略了更复杂的验证逻辑和自定义异常处理完整代码请进群获取。 ...... 一键获取完整项目代码启动服务只需在终端执行uvicornmain:app--reload访问http://127.0.0.1:8000/docs您将看到自动生成的Swagger UI界面所有API都可以在这里进行测试。相关文章DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据原文链接https://tecdat.cn/?p44060测试与验证文档上传与索引/ingest在Swagger UI中点击/ingest端点尝试上传一个PDF文件例如我们为您准备的一篇关于机器学习应用的文章。点击“Execute”后如果成功您将看到如下响应表明文档已被成功分块并索引。此时项目目录下会生成faiss_index文件夹里面保存了向量索引文件即使服务重启数据也不会丢失。智能问答/query接下来测试/query端点。输入一个问题例如“机器学习有哪些应用”并设置top_k4。点击Execute后系统会返回答案以及答案所依据的文档来源。您可以看到答案准确地基于上传文档的内容生成并且指明了来源增强了可信度。深入理解HTTP状态码API的通用语言在开发API时合理使用HTTP状态码至关重要它们用简洁的代码向客户端传达了请求的处理结果。我们的系统也遵循了这一规范。2xx 成功如200 OK表示请求成功。我们的/health、/ingest和/query在正常处理时都会返回200。4xx 客户端错误表示问题出在客户端发送的请求上。例如400 Bad Request当上传了不支持的文件类型或问题为空时我们的API会返回此状态码。422 Unprocessable Entity当请求体不符合Pydantic模型定义时FastAPI会自动返回此状态码。5xx 服务器错误表示服务器端在处理请求时发生意外。例如若FAISS或OpenAI调用失败我们的API会捕获异常并返回500 Internal Server Error。正确使用状态码能让API更加健壮和易用。总结与展望通过本文我们成功地构建并部署了一个基于FastAPI的RAG系统。该系统能够接收并索引PDF或TXT文档。根据用户提问从文档中检索相关信息。利用大语言模型生成精准的答案。这个项目不仅展示了RAG技术的落地过程也体现了FastAPI在构建AI服务时的高效与便捷。您可以将此系统应用于企业知识库问答、智能客服、研究报告分析等场景。展望未来我们可以从以下几个方面进行优化检索策略优化除了简单的相似度搜索可以尝试MMR最大边际相关性检索平衡结果的相关性与多样性。分块策略优化根据文档类型和语言调整分块大小和重叠部分或采用语义分块。多路召回结合关键字检索如BM25与向量检索提高召回率。前端界面为API开发一个简单的聊天界面提升用户体验。AI行业迎来前所未有的爆发式增长从DeepSeek百万年薪招聘AI研究员到百度、阿里、腾讯等大厂疯狂布局AI Agent再到国家政策大力扶持数字经济和AI人才培养所有信号都在告诉我们AI的黄金十年真的来了在行业火爆之下AI人才争夺战也日趋白热化其就业前景一片蓝海我给大家准备了一份全套的《AI大模型零基础入门进阶学习资源包》包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。有需要的小伙伴可以V扫描下方二维码免费领取人才缺口巨大人力资源社会保障部有关报告显示据测算当前****我国人工智能人才缺口超过500万****供求比例达1∶10。脉脉最新数据也显示AI新发岗位量较去年初暴增29倍超1000家AI企业释放7.2万岗位……单拿今年的秋招来说各互联网大厂释放出来的招聘信息中我们就能感受到AI浪潮比如百度90%的技术岗都与AI相关就业薪资超高在旺盛的市场需求下AI岗位不仅招聘量大薪资待遇更是“一骑绝尘”。企业为抢AI核心人才薪资给的非常慷慨过去一年懂AI的人才普遍涨薪40%脉脉高聘发布的《2025年度人才迁徙报告》显示在2025年1月-10月的高薪岗位Top20排行中AI相关岗位占了绝大多数并且平均薪资月薪都超过6w在去年的秋招中小红书给算法相关岗位的薪资为50k起字节开出228万元的超高年薪据《2025年秋季校园招聘白皮书》AI算法类平均年薪达36.9万遥遥领先其他行业总结来说当前人工智能岗位需求多薪资高前景好。在职场里选对赛道就能赢在起跑线。抓住AI风口轻松实现高薪就业但现实却是仍有很多同学不知道如何抓住AI机遇会遇到很多就业难题比如❌ 技术过时只会CRUD的开发者在AI浪潮中沦为“职场裸奔者”❌ 薪资停滞初级岗位内卷到白菜价传统开发3年经验薪资涨幅不足15%❌ 转型无门想学AI却找不到系统路径83%自学党中途放弃。他们的就业难题解决问题的关键在于不仅要选对赛道更要跟对老师我给大家准备了一份全套的《AI大模型零基础入门进阶学习资源包》包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。有需要的小伙伴可以V扫描下方二维码免费领取
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2452782.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!