大语言模型记忆增强框架:LightMem原理、实现与工程实践

news2026/5/16 16:29:27
1. 项目概述当大模型遇上“记忆”瓶颈最近在折腾大语言模型LLM应用开发的朋友估计都遇到过同一个头疼的问题模型记不住事儿。你精心设计了一个对话系统希望它能记住用户的历史偏好比如“我喜欢喝美式咖啡不加糖”结果聊到第三轮它可能就忘了又问你“需要加糖吗”。或者你构建了一个知识库问答应用文档明明已经喂给它了但面对复杂、多步骤的查询时它给出的答案总是支离破碎无法连贯地调用所有相关知识。这个问题的根源在于当前主流LLM的“工作记忆”或“上下文窗口”是有限的。你可以把它想象成一个超级聪明但记性不好的助手它面前只有一块固定大小的白板上下文窗口。每次对话你都得把相关的信息重新写在这块白板上。白板写满了就得擦掉旧的才能写新的。对于长文档、多轮深度对话或需要综合多个来源信息的复杂任务这块白板显然不够用。“zjunlp/LightMem”这个项目正是瞄准了这个痛点。它不是一个全新的模型而是一个精巧的“记忆增强”框架。简单来说它的核心思想是既然模型的“工作白板”上下文有限那我们就给它配一个外接的“智能笔记本”外部记忆。这个笔记本不是简单地存储聊天记录而是能够智能地、动态地组织、检索和更新信息确保在任何时刻模型都能从笔记本里精准地找到当前最需要的那一页内容并誊写到它的工作白板上。我第一次接触这个项目时最吸引我的是它的名字“LightMem”——轻量记忆。这暗示了它的设计哲学高效、低开销、易于集成。在资源受限的实际部署场景中一个动辄需要额外GPU显存或引入复杂向量数据库的方案往往让人望而却步。LightMem试图在效果和效率之间找到一个优雅的平衡点。接下来我将结合自己的实践深入拆解它的设计思路、核心实现以及那些官方文档可能不会明说的实操细节和避坑指南。2. 核心设计思路从“全量上下文”到“精准记忆提取”要理解LightMem首先要跳出“把整个对话历史都塞进上下文”的惯性思维。传统方法要么受限于上下文长度要么粗暴地截断历史导致信息丢失。LightMem采用了一种更智能的策略其设计思路可以概括为以下三个关键转变。2.1 记忆的抽象与结构化LightMem将“记忆”抽象为一种结构化的数据。它不仅仅是原始的对话文本而是被提炼成更易于管理和检索的单元。通常一个记忆单元Memory Unit可能包含核心内容记忆的文本主体。元数据例如创建时间戳、关联的实体如用户ID、话题标签、重要性评分等。访问模式记录该记忆被检索和使用的频率、最近访问时间等。这种结构化处理是后续高效检索和管理的基石。例如在对话场景中系统不会存储“用户说’我住在北京喜欢下雨天。’”而是可能将其解析并存储为{“content”: “用户居住在北京偏好下雨天气。” “entities”: [“北京” “天气偏好”] “importance”: 0.7}。这样当后续对话涉及“北京”或“天气”时这个记忆就能被快速定位。2.2 动态检索而非静态加载这是LightMem最核心的机制。在模型需要生成回复的每一个时刻系统不会将全部历史记忆都送入上下文。相反它会根据当前的对话状态即当前的用户查询和最近的上下文实时地从外部记忆库中检索出最相关的若干条记忆。这个过程通常涉及一个“检索器”Retriever。LightMem可能采用双编码器如BERT类模型将记忆和当前查询分别编码为向量然后计算余弦相似度取最相似的Top-K条记忆。也有更复杂的方案会结合元数据如时间衰减因子、重要性权重对相似度得分进行重排序。注意这里的“检索器”不一定是一个独立的、庞大的模型。LightMem的“轻量”特性可能体现在它复用或微调了主LLM的某些层来充当编码器或者使用了极其高效的向量索引如Faiss的IVF-PQ索引从而将检索开销降到最低。2.3 记忆的更新与生命周期管理记忆不是一成不变的。LightMem引入了记忆的更新机制这包括新增从新的对话轮次中提取有价值的信息形成新的记忆单元。合并当新旧记忆内容高度相关或冲突时进行合并或修正。例如用户先说“我喜欢狗”后说“我其实更喜欢猫”系统需要能更新关于用户宠物偏好的记忆。遗忘这是为了控制记忆库的规模防止无限膨胀。可以基于简单的LRU最近最少使用策略也可以基于记忆的重要性评分进行淘汰。重要性评分可以通过模型预测如预测该记忆对未来对话的帮助程度或启发式规则如包含关键实体、被频繁访问来赋予。这套“抽象-检索-更新”的闭环使得LightMem能够模拟一种更接近人类的高效记忆模式只记住要点用时快速回想并不断修正认知。3. 关键技术组件拆解理解了设计思路我们来看看LightMem是如何用具体的技术模块来实现的。根据其开源代码和论文如果已发表我们可以将其核心架构分解为几个关键组件。3.1 记忆编码器与向量化存储记忆需要被编码成计算机能高效处理的形式。LightMem很可能采用以下流程文本编码使用一个预训练的语言模型如BGE、Sentence-BERT作为编码器将每个记忆单元的文本内容转换为一个固定维度的稠密向量Embedding。这个向量捕获了文本的语义信息。向量索引将所有记忆向量构建成一个索引。为了追求“轻量”项目很可能选择了Faiss这个高效的向量相似度搜索库。Faiss提供了多种索引类型对于LightMem的场景IVF倒排文件PQ乘积量化是经典组合。IVF通过聚类对向量进行粗分组搜索时只查找最相关的几个簇大幅减少计算量。PQ则将高维向量压缩成短编码极大节省存储空间和距离计算成本。这种组合能在精度损失很小的情况下实现百万级向量的毫秒级检索。对于更小规模的记忆库如万级以下简单的FlatL2精确搜索或HNSW近似图搜索也可能被使用具体取决于对精度和速度的权衡。# 伪代码示例使用Faiss构建IVFPQ索引 import faiss import numpy as np # 假设 memory_embeddings 是一个 numpy 数组形状为 [num_memories, embedding_dim] dim memory_embeddings.shape[1] num_memories memory_embeddings.shape[0] # 1. 训练量化器 (通常使用数据子集) nlist 100 # 聚类中心数根据数据量调整 quantizer faiss.IndexFlatL2(dim) index faiss.IndexIVFPQ(quantizer, dim, nlist, m, 8) # m: 子向量数8: 每个子量化的比特数 index.train(memory_embeddings[:min(50000, num_memories)]) # 用部分数据训练 # 2. 添加向量到索引 index.add(memory_embeddings) # 3. 检索 (在实际应用中查询向量query_vec由当前对话编码得到) k 5 # 检索最相似的5条记忆 distances, indices index.search(query_vec, k) retrieved_memories [memory_list[i] for i in indices[0]]3.2 基于上下文的实时检索器检索器是连接当前对话与历史记忆的桥梁。它的输入是“当前的对话状态”输出是一组相关的记忆。这个“对话状态”的构建很有讲究简单模式仅使用最新的用户查询User Query作为检索输入。增强模式将最新的用户查询与模型上一轮的回复或最近几轮对话拼接起来共同编码作为查询向量。这能提供更丰富的上下文信息尤其对于指代消解如“它”、“那个地方”很有帮助。检索过程就是计算查询向量与记忆库中所有记忆向量的相似度并返回Top-K。为了提高相关性LightMem可能在此环节加入了重排序Re-ranking首轮检索用高效的向量索引如IVFPQ快速召回一批候选记忆例如Top-100。精细排序用一个更精细但计算量稍大的模型如交叉编码器Cross-Encoder对这批候选记忆和查询进行逐一深度匹配重新打分选出最终的Top-K例如Top-5。这种方式在保证效率的同时提升了检索精度。3.3 记忆与上下文的融合策略检索到的记忆如何有效地送给大模型使用直接拼接在原始提示Prompt前面是最常见的方法但这里面有技巧位置放置通常将相关记忆放在系统指令System Prompt之后当前对话历史之前。例如[System]: 你是一个有帮助的助手可以访问以下背景信息来更好地回答用户问题。 [Memory]: 1. 用户曾表示喜欢喝美式咖啡不加糖。 2. 用户上周询问过关于Python异步编程的问题。 [History]: 用户今天有什么编程学习建议 助手可以考虑深入学习Python的asyncio模块。 用户好的那我之前关于咖啡的偏好你还记得吗 [Current Query]: 用户帮我推荐一家咖啡馆。格式化与标记清晰地区分记忆、历史和当前查询至关重要。使用明确的标记如[Memory]、[History]、[Query]有助于模型理解不同部分的角色。有些方案还会为每条记忆添加一个简短的可读摘要或关键词标签。长度控制检索到的记忆总长度不能挤占原本留给对话历史和模型生成的空间。需要设定一个总token预算动态选择最相关的记忆直到预算用尽。3.4 记忆的更新与维护模块这个模块负责记忆库的“新陈代谢”其实现逻辑往往比检索更复杂因为它需要一定的“判断力”。记忆提取如何从一轮新的对话中判断哪些信息值得成为长期记忆一种简单规则是提取包含用户明确事实陈述或偏好的句子。更高级的方法会训练一个轻量级分类器判断一个句子是否属于“可记忆”的范畴如包含个人事实、任务状态、重要决策等。记忆合并当新提取的记忆与旧记忆高度重叠或冲突时需要合并算法。例如基于文本相似度检测冲突然后可以通过语言模型生成一个融合后的版本或者简单地用新记忆覆盖旧记忆如果新信息更具体或时间更新。记忆遗忘定期清理记忆库。策略可以是基于时间的衰减很久未被访问的记忆其重要性分数随时间递减。基于使用的衰减被频繁使用的记忆分数增加反之减少。主动修剪当记忆库超过设定容量时移除分数最低的记忆。这些策略的混合使用使得记忆库能够保持动态、精简且有效。4. 实战部署与集成指南理论讲得再多不如动手跑一遍。这里我以集成一个基于LightMem思路的对话助手为例分享从环境搭建到效果调优的全流程。假设我们使用类似的技术栈FastAPI作为后端Sentence-BERT做编码Faiss做检索并接入一个开源的LLM如ChatGLM3、Qwen或通过API调用GPT。4.1 环境搭建与依赖安装首先创建一个干净的Python环境推荐3.9并安装核心依赖。LightMem本身可能是一个框架我们需要安装其核心库以及它依赖的组件。# 创建虚拟环境 python -m venv lightmem_env source lightmem_env/bin/activate # Linux/Mac # lightmem_env\Scripts\activate # Windows # 安装核心依赖 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # 根据CUDA版本调整 pip install transformers sentence-transformers faiss-cpu # 或 faiss-gpu 如果有GPU pip install fastapi uvicorn pydantic pip install openai # 如果需要调用OpenAI API # 如果LightMem已发布到PyPI则直接 pip install lightmem实操心得faiss-cpu和faiss-gpu的安装是个常见坑。如果只是本地测试或CPU服务器装faiss-cpu最省事。如果要用GPU加速检索确保CUDA版本与faiss-gpu包匹配。在Docker中部署时建议从NVIDIA官方容器基础镜像开始构建能避免很多环境冲突。4.2 记忆库的初始化与持久化记忆库不能只放在内存里需要持久化到磁盘以便服务重启后能恢复。设计记忆表可以使用SQLite轻量或PostgreSQL生产环境。表结构至少包含id,content文本,embedding向量可存为Blob或专用向量类型,metadataJSON存时间戳、实体等,importance_score,last_access_time。向量索引的保存与加载Faiss索引对象可以通过write_index和read_index方法保存到文件。每次新增或删除记忆后除了更新数据库也要同步更新索引文件。为了效率可以定期如每100次更新或定时重建索引。import faiss import pickle import numpy as np from sentence_transformers import SentenceTransformer class MemoryStore: def __init__(self, model_nameBAAI/bge-small-zh-v1.5, index_pathmemory_index.faiss): self.encoder SentenceTransformer(model_name) self.index_path index_path self.memory_list [] # 或连接数据库 self.index None self._load_or_init_index() def _load_or_init_index(self): try: self.index faiss.read_index(self.index_path) print(fLoaded existing index from {self.index_path}) except: dim self.encoder.get_sentence_embedding_dimension() # 初始化一个空的IVFPQ索引 quantizer faiss.IndexFlatL2(dim) # 参数需要根据数据量调整nlist聚类数 m子向量数 self.index faiss.IndexIVFPQ(quantizer, dim, nlist100, m16, nbits8) print(fCreated new index with dim{dim}) def add_memory(self, text, metadataNone): # 编码 vector self.encoder.encode([text], normalize_embeddingsTrue)[0] vector np.array([vector]).astype(float32) # 添加到索引注意新加的向量需要训练过的索引否则先训练 if not self.index.is_trained: # 用已有向量或新向量的一部分训练 pass self.index.add(vector) # 保存到数据库和内存列表 memory_id len(self.memory_list) self.memory_list.append({id: memory_id, text: text, metadata: metadata}) # 定期保存索引 if memory_id % 100 0: self._save_index() def _save_index(self): faiss.write_index(self.index, self.index_path) print(fIndex saved to {self.index_path})4.3 与LLM的协同工作流程构建一个完整的服务端处理流程。以下是一个简化的FastAPI端点处理逻辑from fastapi import FastAPI, HTTPException from pydantic import BaseModel import logging app FastAPI() memory_store MemoryStore() # 假设我们有一个LLM的调用客户端可以是本地模型或API # from llm_client import call_llm class QueryRequest(BaseModel): user_id: str question: str conversation_history: list [] # 格式[{role: user/assistant, content: ...}] app.post(/chat) async def chat_with_memory(request: QueryRequest): try: # 1. 构建当前对话状态检索查询 # 简单策略仅用最新问题增强策略拼接最近几轮对话 retrieval_query request.question if request.conversation_history: # 取最后2轮对话拼接 recent_history .join([f{msg[role]}: {msg[content]} for msg in request.conversation_history[-2:]]) retrieval_query recent_history request.question # 2. 从记忆库检索相关记忆 query_vec memory_store.encoder.encode([retrieval_query], normalize_embeddingsTrue)[0] query_vec np.array([query_vec]).astype(float32) k 5 distances, indices memory_store.index.search(query_vec, k) retrieved_memories [] for idx in indices[0]: if idx ! -1 and idx len(memory_store.memory_list): # -1 表示未找到 mem memory_store.memory_list[idx] retrieved_memories.append(mem[text]) # 更新该记忆的最近访问时间在数据库中 # update_last_access(mem[id]) # 3. 构建包含记忆的Prompt memory_context \n.join([f- {mem} for mem in retrieved_memories]) if retrieved_memories else 无相关背景信息。 system_prompt f你是一个有帮助的助手可以参考以下用户背景信息来回答问题 {memory_context} 请基于以上信息和对话历史友好、准确地回答用户问题。 messages [ {role: system, content: system_prompt}, *request.conversation_history, # 注入历史对话 {role: user, content: request.question} ] # 4. 调用LLM生成回复 # llm_response call_llm(messages) llm_response 这是模拟的LLM回复基于记忆和历史生成。 # 5. 可选从本轮对话中提取新记忆 # 这里简化处理如果用户陈述了个人事实则提取 # new_memory_candidate extract_new_memory(request.question, llm_response) # if new_memory_candidate: # memory_store.add_memory(new_memory_candidate, metadata{user_id: request.user_id}) return {response: llm_response, retrieved_memories: retrieved_memories} except Exception as e: logging.error(fChat error: {e}) raise HTTPException(status_code500, detailInternal server error)4.4 参数调优与性能考量部署后需要通过调整参数来平衡效果和性能检索数量K检索多少条记忆送入上下文太少可能信息不足太多会占用宝贵的上下文窗口且可能引入噪声。通常从3-5开始测试根据任务复杂度调整。相似度阈值设置一个最低相似度分数低于此分数的记忆即使排在前K名也不被采用避免引入不相关的信息。索引参数FaissnlistIVF聚类数值越大搜索越精确但越慢。通常设置为sqrt(N)N为向量总数的倍数。m和nbitsPQ参数m是子向量数nbits是每个子量化的比特数。m越大、nbits越高精度越高但存储和计算成本也越高。对于文本语义向量m16nbits8是一个常见的起点。记忆更新策略设置记忆提取的敏感度什么信息值得记、合并的阈值相似度多高才合并、遗忘的周期和容量。这些参数需要结合具体应用场景通过A/B测试来确定。性能考量检索延迟对于实时对话检索延迟应控制在100ms以内。使用Faiss IVF-PQ索引在CPU上对百万级向量的检索也能轻松满足。内存占用记忆向量和索引会常驻内存。假设向量维度为384使用PQ压缩后每条记忆可能只需几百字节。百万条记忆的内存占用可能在几百MB到1GB左右对于现代服务器是可接受的。与LLM推理的协同记忆检索和LLM推理通常是串行的这会增加整体响应延迟。可以考虑异步或流水线优化例如在用户输入时并行进行检索。5. 常见问题与效果优化实战在实际使用中你肯定会遇到各种预期之外的情况。下面是我踩过的一些坑以及对应的解决方案。5.1 检索结果不相关或噪声大这是最常见的问题。明明用户问了A检索出来的记忆却是关于B的。根因分析编码模型不匹配用于记忆编码和查询编码的模型不一致或者模型本身在特定领域如医疗、法律的语义理解能力不足。查询构建不佳仅用单句查询可能信息量不足。例如用户问“它怎么样”这个“它”指代不明。记忆文本质量差原始记忆是冗长的、包含无关信息的段落导致向量无法聚焦核心语义。解决方案升级编码模型尝试在领域数据上微调Sentence-BERT模型或换用更强大的模型如BAAI/bge-large-zh-v1.5或OpenAI的text-embedding-3系列API。优化查询采用“查询扩展”技术。将当前查询与对话历史中的关键实体、上一轮模型回复的核心观点进行拼接形成一个信息更丰富的查询语句。净化记忆在存储记忆前对其进行清洗和摘要。例如使用LLM将一段冗长的用户陈述总结成一句精炼的事实“用户于2023年毕业于清华大学计算机系” 比存储原始对话“我啊是清华计算机系毕业的23年刚拿到学位证……”更干净检索效果更好。5.2 记忆冲突与信息混乱当记忆库中存在两条相互矛盾的信息时如用户先说喜欢猫后说喜欢狗模型可能会感到困惑导致回复不一致。根因分析记忆合并与冲突解决机制不健全。解决方案时间戳优先为每条记忆附加强时间戳。在检索时如果发现内容冲突的记忆默认采用时间最近的一条。也可以在Prompt中明确告诉模型“如果背景信息有冲突请以更新时间最新的信息为准。”置信度加权为记忆附加一个置信度分数来源于提取时的模型评分或人工校验。在构建上下文时可以同时提供冲突的记忆但注明各自的置信度让LLM自行判断。主动冲突检测与消解定期运行一个后台任务扫描记忆库中语义高度相似但内容矛盾的记忆对并触发一个消解流程。这个流程可以人工介入也可以让LLM根据逻辑或时间判断生成一条统一的记忆。5.3 记忆库无限膨胀导致性能下降随着时间推移记忆库会越来越大检索变慢存储成本增加。根因分析缺乏有效的记忆遗忘或压缩机制。解决方案设定容量上限采用LRU缓存策略。当记忆条数超过上限时淘汰最久未被访问的记忆。重要性评分淘汰实现一个重要性评分模型。评分可以基于访问频率、访问新鲜度、与其他记忆的关联度、是否包含关键实体等。定期淘汰重要性评分最低的记忆。记忆聚类与摘要对于关于同一主题的多个细碎记忆例如用户多次提到喜欢某导演的不同电影可以定期进行聚类然后用LLM生成一个概括性的摘要记忆并删除原始的细碎记忆。这既能压缩规模又能提升信息密度。5.4 多轮对话中指代消解失败用户说“帮我订一张去那里的机票。” 模型可能无法理解“那里”指代的是记忆库中“用户下个月要去上海出差”这条信息。根因分析检索查询没有包含足够的上下文来解析指代。解决方案指代解析预处理在构建检索查询前先用一个简单的指代消解工具或提示LLM对当前用户语句进行处理将“那里”、“他”、“这个项目”等指代词替换成具体的实体名称。例如将“去那里”替换为“去上海”。扩大检索上下文窗口不仅用当前句而是将最近2-3轮对话都作为检索查询的一部分这样指代所指的实体更可能出现在查询文本中从而被检索到。5.5 效果评估缺乏标准如何知道加了LightMem之后对话系统真的变好了解决方案建立多维度的评估体系。人工评估设计一批测试用例让标注人员从“相关性”、“一致性”、“信息丰富度”等维度对比有无记忆增强的回复质量。这是最可靠但成本最高的方法。自动化指标记忆召回率对于已知答案存在于记忆库的问题系统是否能成功检索到相关记忆检索精度检索到的Top-K记忆中有多少是真正相关的端到端任务成功率在需要多轮记忆的任务如订餐、行程规划中任务最终完成的成功率。A/B测试在线上真实流量中分桶对比使用LightMem和基线版本的业务指标如用户满意度、任务完成率、对话轮次等。通过持续监控这些指标并针对性地优化上述环节才能让LightMem这类记忆增强框架真正发挥价值打造出更智能、更贴身的AI应用。记住没有一劳永逸的参数和策略最好的配置永远来自于对你自己应用场景和数据特性的深入理解与反复迭代。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2618755.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…