基于RAG的文档智能问答系统:从向量化到智能体实践

news2026/5/3 4:34:42
1. 项目概述当文档库遇上智能体最近在折腾一个很有意思的项目叫hermes-agent-docs。乍一看这个名字你可能觉得它和希腊神话里的信使赫尔墨斯有关或者联想到某个大语言模型。其实它的核心思路非常直接也很有代表性如何让一个智能体Agent能够理解、检索并利用你指定的文档库来回答问题。想象一下这个场景你有一个庞大的内部知识库比如公司的产品手册、技术白皮书、API文档或者是你个人积累的笔记、论文合集。当有新同事提问或者你自己想快速查找某个技术细节时传统的全文搜索往往不够精准要么搜出一堆无关信息要么漏掉了关键上下文。而hermes-agent-docs这类项目就是试图用大语言模型LLM驱动的智能体来解决这个问题。它不是一个简单的“文档搜索工具”而是一个能“理解”文档内容并基于此进行“推理”和“对话”的智能助手。这个项目由开发者renxia创建其核心价值在于提供了一个可复现的框架或示例展示了如何将私有文档与智能体能力相结合。它解决的痛点非常明确信息孤岛和知识获取效率。对于开发者、技术团队、内容创作者乃至任何需要管理大量非结构化文本信息的个人来说这都是一项极具吸引力的能力。它意味着你可以构建一个专属的、24小时在线的“领域专家”其知识边界完全由你提供的文档定义。2. 核心架构与设计思路拆解要理解hermes-agent-docs我们需要先拆解其背后的通用技术栈和设计哲学。这类项目通常不是从零造轮子而是基于成熟的组件进行“组装”。其核心流程可以概括为文档处理 - 向量化存储 - 智能检索 - 生成回答。2.1 文档处理与向量化从文本到“数学”智能体理解文档的第一步是把人类可读的文字转换成机器能“计算”的形式。这里的关键技术是嵌入Embedding。文档加载与切分首先系统需要支持多种格式的文档如.txt,.md,.pdf,.docx甚至网页。加载后一个关键步骤是文本切分Chunking。你不能把整本书直接扔给模型因为模型有上下文长度限制如 4K, 8K, 16K tokens。切分的策略直接影响效果固定长度切分简单但可能把一个完整的段落或概念拦腰截断。基于语义切分利用标点、换行符或者更高级的基于句子、段落的语义分割器如langchain的RecursiveCharacterTextSplitter尽量保证每个“块”的语义完整性。重叠切分在切分时让相邻的块有部分内容重叠例如后一个块的前100个token是前一个块的最后100个token。这能有效避免信息在边界处丢失是提升召回率的重要技巧。生成向量嵌入对每个文本块使用一个嵌入模型Embedding Model将其转换为一个高维向量例如 768 维或 1536 维。这个向量就像是这段文本在高维空间中的一个“坐标点”语义相近的文本其向量在空间中的距离通常用余弦相似度衡量也会很近。常用的嵌入模型包括 OpenAI 的text-embedding-ada-002开源的BGE、Sentence-Transformers系列等。选择嵌入模型时需要权衡效果、速度和成本如果是云服务。注意嵌入模型的选择至关重要。一个在通用语料上训练的模型可能无法很好地捕捉你专业领域文档如医学、法律、代码的细微语义差异。有时需要对嵌入模型进行微调或者直接选用在特定领域表现优秀的模型。2.2 向量数据库知识的“记忆宫殿”生成海量向量后需要高效地存储和检索。这就是向量数据库Vector Database的用武之地。它专门为高维向量的近似最近邻搜索ANN优化。为什么不用传统数据库传统关系型数据库如 MySQL或搜索引擎如 Elasticsearch的模糊匹配、倒排索引在处理“语义相似度”查询时力不从心。而向量数据库能快速从百万级向量中找到与问题向量最相似的 Top-K 个结果。常见选择Chroma轻量、易用、Pinecone全托管云服务、Weaviate功能丰富、Qdrant性能优异、Milvus面向大规模场景。hermes-agent-docs这类项目通常会选用其中一种作为默认或可选项。索引与检索向量数据库会为所有向量建立索引如 HNSW, IVF。检索时将用户的问题也通过相同的嵌入模型转换为向量然后在数据库中搜索最相似的几个文本块。这些被检索出来的文本块就是后续生成答案的“参考依据”。2.3 智能体与提示工程从检索到生成检索到相关文档片段后如何生成一个准确、流畅、基于上下文的答案这就是大语言模型和智能体框架的工作。检索增强生成RAG这是此类项目的核心模式。它不是让模型凭空想象而是将检索到的文档片段作为“上下文”与用户问题一起构造成一个提示Prompt提交给大语言模型如 GPT-4, Claude, 或开源的 Llama 系列、Qwen 系列指令模型“基于以下上下文回答问题”。这极大地减少了模型“胡言乱语”的可能提高了答案的准确性和可追溯性。智能体Agent框架hermes-agent-docs的“Agent”可能不仅仅指一个简单的 RAG 流程。更高级的智能体具备规划Planning、工具使用Tool Use和记忆Memory能力。例如规划面对复杂问题智能体可能先将其分解成多个子问题分别检索再综合回答。工具使用除了文档检索工具智能体可能还能调用计算器、代码解释器、网络搜索等工具。记忆保留对话历史实现多轮对话的连贯性。 流行的智能体框架包括LangChain、LlamaIndex、Semantic Kernel等它们提供了构建此类流程的高级抽象。提示工程构造给模型的提示是一门艺术。一个典型的 RAG 提示模板可能如下你是一个专业的助手请严格根据提供的上下文信息来回答问题。如果上下文信息不足以回答问题请直接说“根据提供的信息我无法回答这个问题”不要编造信息。 上下文信息 {context} 问题{question} 请基于上下文给出准确、简洁的回答提示词的设计直接影响模型是否遵循指令、是否引用来源、以及回答的风格。3. 关键技术实现与配置要点基于上述架构我们来深入探讨hermes-agent-docs可能涉及的具体实现和配置细节。这里我会基于常见的开源技术栈进行推演和补充。3.1 环境搭建与依赖管理一个可复现的项目首先需要清晰的环境说明。通常使用requirements.txt或pyproject.toml来管理 Python 依赖。核心依赖可能包括langchain/llama-index: 用于构建智能体链和文档处理流程。chromadb/qdrant-client: 向量数据库客户端。sentence-transformers/openai: 用于文本嵌入。pypdf/python-docx/markdown: 用于解析不同格式的文档。streamlit/gradio: 用于构建简单的 Web 演示界面。某个大语言模型的 SDK 或本地模型加载库如transformers,llama-cpp-python。实操要点版本锁定在requirements.txt中尽量使用锁定主要依赖的版本避免因库更新导致的不兼容。虚拟环境务必使用venv或conda创建独立的 Python 环境。模型下载如果使用开源模型需要在代码或文档中说明模型的下载方式如从 Hugging Face 下载。对于较大的模型可以考虑在首次运行时自动下载并缓存。3.2 文档加载与预处理流水线这是决定知识库质量的基础环节。一个健壮的流水线需要处理各种“脏数据”。# 伪代码示例一个简单的文档处理流程 from langchain.document_loaders import DirectoryLoader, PyPDFLoader, TextLoader from langchain.text_splitter import RecursiveCharacterTextSplitter def process_documents(data_dir): # 1. 加载 - 支持多种格式 loaders { .pdf: PyPDFLoader, .txt: TextLoader, .md: TextLoader, } documents [] for ext, loader_class in loaders.items(): loader DirectoryLoader(data_dir, globf**/*{ext}, loader_clsloader_class) documents.extend(loader.load()) # 2. 切分 - 关键参数调整 text_splitter RecursiveCharacterTextSplitter( chunk_size500, # 每个块的最大字符数 chunk_overlap50, # 块之间的重叠字符数 length_functionlen, separators[\n\n, \n, 。, , , , , , ] # 中文分隔符 ) chunks text_splitter.split_documents(documents) # 3. 可选清洗 - 移除多余空格、特殊字符等 for chunk in chunks: chunk.page_content clean_text(chunk.page_content) return chunks参数调优经验chunk_size不是越大越好。需要匹配你使用的 LLM 的上下文窗口和嵌入模型的最佳输入长度。通常 300-1000 字符是一个常见范围。对于技术文档较小的块如 300-500可能更精准对于叙述性文本可以稍大。chunk_overlap通常设置为chunk_size的 10%-20%。这是防止语义断裂的“安全气囊”对效果提升明显但会增加存储和索引成本。元数据保留在切分时务必保留来源信息如文件名、页码、章节标题作为元数据。这在后续回答中引用来源时至关重要。3.3 向量化与存储策略选择嵌入模型和向量数据库后如何高效地进行初始化构建和增量更新是关键。# 伪代码示例构建向量存储 from langchain.embeddings import HuggingFaceEmbeddings # 或 OpenAIEmbeddings from langchain.vectorstores import Chroma def create_vector_store(chunks, persist_directory./chroma_db): # 1. 选择嵌入模型 # 本地模型示例节省成本可控 embedding_model HuggingFaceEmbeddings( model_nameBAAI/bge-small-zh-v1.5, # 中文小模型效果不错 model_kwargs{device: cpu}, # 或 cuda encode_kwargs{normalize_embeddings: True} # 归一化方便余弦相似度计算 ) # 云服务示例效果稳定简单 # embedding_model OpenAIEmbeddings(modeltext-embedding-ada-002) # 2. 创建并持久化向量存储 vectorstore Chroma.from_documents( documentschunks, embeddingembedding_model, persist_directorypersist_directory ) # Chroma 会自动持久化 return vectorstore关键决策点嵌入模型本地化 vs 云端 API本地模型零成本、数据隐私高但需要计算资源且效果可能略逊于顶级云端模型。云端 API 简单、效果稳定但有调用费用和数据出境顾虑。hermes-agent-docs作为开源项目很可能会优先支持本地模型以降低使用门槛。向量数据库的持久化确保向量索引在程序重启后可以加载而不是每次重建。Chroma的persist_directory参数就是用于此目的。增量更新当文档库新增文件时需要支持增量添加向量而不是全量重建。大多数向量数据库都提供了add_documents方法。但要注意频繁的小规模增量添加可能影响索引效率有时需要定期重新优化索引。3.4 检索与生成链的构建这是智能体的“大脑”部分将检索器、LLM和记忆等组件连接起来。# 伪代码示例构建一个带历史记忆的对话链 from langchain.chains import ConversationalRetrievalChain from langchain.memory import ConversationBufferMemory from langchain.chat_models import ChatOpenAI # 或 ChatOllama, ChatQwen def create_agent_chain(vectorstore): # 1. 定义检索器 retriever vectorstore.as_retriever( search_typesimilarity, # 或 mmr (最大边际相关性兼顾相关性和多样性) search_kwargs{k: 4} # 检索返回的文档块数量 ) # 2. 定义LLM # 云端LLM示例 llm ChatOpenAI(model_namegpt-3.5-turbo, temperature0.1) # 本地LLM示例使用Ollama # from langchain.llms import Ollama # llm Ollama(modelqwen2:7b) # 3. 定义记忆 memory ConversationBufferMemory( memory_keychat_history, output_keyanswer, return_messagesTrue ) # 4. 构建对话检索链 qa_chain ConversationalRetrievalChain.from_llm( llmllm, retrieverretriever, memorymemory, return_source_documentsTrue, # 返回来源文档便于验证 verboseTrue # 调试时查看链的中间步骤 ) # 5. 高级自定义提示词 from langchain.prompts import PromptTemplate custom_prompt PromptTemplate( input_variables[chat_history, question, context], template你是一个严谨的文档助手。请根据以下对话历史和上下文来回答问题。如果上下文不包含答案请直接说不知道不要编造。 对话历史 {chat_history} 上下文 {context} 问题{question} 基于上下文的答案 ) # 可以将 custom_prompt 通过 chain_type_kwargs 传入 return qa_chain核心配置解析search_typesimilarity直接按相似度排序mmr会在保证相关性的同时尽量让返回的文档片段多样化避免信息冗余对于复杂问题有时效果更好。k值检索返回的片段数。太小可能信息不足太大会增加模型处理负担和成本也可能引入噪声。通常从 3-5 开始调试。temperatureLLM 的温度参数控制创造性。在文档问答这种需要准确性的场景通常设置得很低如 0.1让模型更倾向于从上下文中找答案。记忆MemoryConversationBufferMemory会保存完整的对话历史。在有多轮交互的场景下这能让智能体理解指代如“上面的那个方法”。但历史太长也会占用上下文窗口有时需要使用ConversationSummaryMemory来压缩历史。4. 部署、优化与实战经验让一个原型跑起来是一回事让它稳定、高效、好用是另一回事。这部分分享一些从原型到可用的实战经验。4.1 本地与云端部署考量本地部署适合开发、测试、内网环境优势数据完全私有无网络延迟无 API 调用成本。挑战需要足够的计算资源CPU/内存/GPU来运行嵌入模型和如果使用本地 LLM。管理依赖和环境可能稍复杂。简易方案使用Docker容器化部署可以固化环境。docker-compose.yml可以编排向量数据库如 Qdrant、应用服务等多个容器。资源估算一个轻量级的嵌入模型如BGE-small在 CPU 上运行尚可。如果加上一个 7B 参数的本地 LLM如 Qwen2-7B至少需要 8GB 以上空闲内存推荐 16GB。使用 GPU 会极大加速推理。云端部署适合生产、公开服务优势弹性伸缩免运维可以轻松使用最强的云端模型如 GPT-4。挑战持续的成本数据需要传输到云端需考虑合规性依赖网络。常见模式全托管使用类似Pinecone向量库OpenAI嵌入和LLMVercel/Railway应用托管的组合几乎无需管理服务器。云服务器自建在云服务器如 AWS EC2, GCP Compute Engine上部署全套服务控制力更强成本结构不同。给hermes-agent-docs开发者的建议在项目 README 中提供清晰的、多路径的部署指南例如本地CPU快速体验、Docker一键部署、云服务器部署能极大提升项目的易用性和受欢迎程度。4.2 效果优化与评估RAG 系统的效果并非一蹴而就需要持续的调优和评估。1. 检索质量优化多路召回Hybrid Search结合关键词搜索如 BM25和向量搜索。有些问题用关键词匹配更准如特定的产品型号“ABC-123”有些则需语义理解如“如何解决启动慢的问题”。Weaviate、Elasticsearch的向量插件等都支持混合搜索。重排序Re-ranking先用向量检索出较多的候选文档如 20 个再用一个更小、更精的重排序模型对这些结果进行精排选出最相关的 Top-K 个。这能显著提升最终答案的质量。元数据过滤在检索时加入过滤器例如只检索某个特定文件夹、特定日期之后的文档。这能提高精度尤其是在文档库有明确分类时。2. 生成质量优化提示词工程迭代这是成本最低的优化方式。不断根据 bad cases 调整提示词。例如增加“引用原文片段”、“以列表形式回答”、“如果不确定请说明”等指令。后处理对模型生成的答案进行后处理比如格式化、移除无关的客套话、检查是否包含不应出现的信息。让模型“自我验证”在复杂场景下可以让 LLM 对自己生成的答案基于检索到的上下文进行一次事实一致性检查。3. 如何评估效果没有标准答案但可以建立自己的评估集构造测试集从文档中提取或人工编写一批“问题-标准答案”对。自动化评估指标检索相关性计算检索到的文档与标准答案的相似度可用另一个模型计算。答案忠实度生成的答案是否严格基于检索到的上下文有没有“幻觉”。答案相关性生成的答案是否直接回答了问题。人工评估定期抽样检查这是最可靠的方法。关注答案的准确性、完整性和流畅性。4.3 安全、成本与扩展性安全与隐私数据泄露如果使用云端 LLM API你的文档内容和用户问题都会发送给第三方。对于敏感数据必须使用本地模型或提供严格数据协议的私有化模型服务。提示词注入用户可能通过精心构造的问题让智能体“忘记”指令泄露系统提示词或执行不当操作。需要在提示词中加入强约束并对用户输入进行一定的清洗和检查。访问控制如果部署为服务需要实现用户认证和授权确保不同用户只能访问其权限内的文档。成本控制云 API 成本主要来自 LLM 调用按 token 计费和嵌入调用。优化策略包括缓存频繁查询的嵌入结果、使用更小的模型如gpt-3.5-turbo而非gpt-4、优化提示词减少不必要的输出、设置使用量配额。自建成本主要是服务器费用。可以选择性价比高的实例使用模型量化技术降低显存占用在流量低时自动缩放。扩展性设计模块化将文档加载、嵌入、检索、生成等模块解耦便于单独升级或替换。例如从Chroma切换到Qdrant应该只需修改少量配置。支持多租户如果面向多个团队或客户需要设计隔离的向量存储空间。异步处理文档入库、向量化等耗时操作应设计为异步任务避免阻塞主请求。5. 常见问题与排查实录在实际搭建和使用过程中你会遇到各种各样的问题。这里记录一些典型问题和解决思路。问题1智能体回答“根据上下文我无法回答”但明明文档里有相关内容。可能原因1检索失败。检索到的 Top-K 个文档片段里没有包含答案。排查检查检索器返回的source_documents。如果确实没有问题出在检索环节。解决增大k值尝试mmr搜索检查嵌入模型是否适合你的文档领域尝试换一个模型优化文本切分策略块太大或太小都可能影响检索。可能原因2提示词或LLM理解问题。答案在上下文中但模型没“看到”或没理解。排查将检索到的上下文和问题一起手动粘贴到 ChatGPT 等界面测试看能否生成答案。解决优化提示词用更明确的指令让模型“仔细阅读上下文”尝试换一个能力更强的 LLM检查上下文是否过于冗长导致关键信息被淹没。问题2智能体回答时“幻觉”严重编造内容。可能原因1检索到的上下文相关性太低。模型在无关的文本上“自由发挥”。解决提升检索精度见上一节优化方法在提示词中强烈警告模型“严禁编造”。可能原因2LLM 的temperature参数太高。解决将temperature设为 0 或接近 0 的值如 0.1。可能原因3上下文长度不足。模型为了生成完整回答被迫编造。解决确保检索到的上下文包含足够信息或者让模型在无法回答时明确承认。问题3处理大量文档时速度很慢内存/磁盘占用高。可能原因1嵌入模型在CPU上运行。解决如果有 GPU将嵌入模型放到 GPU 上。或者选用更轻量的嵌入模型。可能原因2向量数据库索引未优化或内存不足。解决对于Chroma确保使用持久化模式避免每次加载全量数据到内存。对于大规模数据考虑使用Qdrant、Milvus等支持磁盘索引和分片的数据库。可能原因3文本切分不合理。产生了太多或太大的块。解决重新评估chunk_size。对于纯文本500-1000字符通常足够。使用重叠切分避免信息丢失但会增加总块数。问题4增量添加新文档后检索效果变差或不一致。可能原因向量数据库索引未更新或更新方式有误。解决确认使用的是add_documents方法并且新文档的嵌入模型与建库时一致。对于某些数据库增量添加后可能需要手动触发索引重建或优化。最好有定期全量重建索引的维护计划。问题5中文文档处理效果不好。可能原因1嵌入模型不支持或对中文不友好。解决务必选用针对中文优化的嵌入模型如BAAI/bge系列、moka-ai/m3e系列。text-embedding-ada-002对英文支持更好中文稍弱。可能原因2文本切分器按英文标点分割切碎了中文句子。解决使用支持中文分隔符的切分器如上面示例中的RecursiveCharacterTextSplitter配置了中文标点。可能原因3LLM 对中文指令遵循能力弱。解决使用优秀的双语或中文 LLM如Qwen、ChatGLM、Yi系列。如果只能用英文模型尝试将提示词和问题翻译成英文进行检索和生成再将答案翻译回中文复杂有损。构建一个实用的文档智能体就像训练一位新员工。你需要给它提供清晰、结构化的资料文档处理教会它如何快速找到相关信息检索并培养它基于资料严谨汇报的习惯生成与提示工程。hermes-agent-docs这类项目提供了一个绝佳的起点和范式。在实际操作中最大的挑战往往不是技术实现而是对领域知识的理解、对效果的持续调优以及对成本、安全、体验的综合权衡。从我自己的经验来看从小范围、高价值的文档集开始试点快速迭代收集反馈远比一开始就追求大而全的系统要来得实在。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2577164.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…