Memobase:为AI应用构建结构化长期记忆系统的实践指南

news2026/5/13 16:10:36
1. 项目概述为AI应用注入“长期记忆”的Memobase如果你正在构建一个AI聊天机器人、虚拟助手或者任何需要与用户进行多轮对话的LLM应用你肯定遇到过这个核心痛点AI记不住用户是谁。上一轮对话用户刚说过自己是个住在西雅图的软件工程师喜欢养猫和徒步下一轮AI可能就忘得一干二净对话变得生硬、重复毫无个性化可言。这就是“无状态”AI的典型缺陷它让每一次交互都像是与一个陌生人重新开始。传统的解决方案比如简单的对话历史拼接很快就会因为上下文窗口限制而失效。而基于向量检索的RAG方案虽然能找回一些历史片段但更像是在一堆杂乱无章的日记里翻找缺乏对用户整体画像的结构化理解和长期演变的追踪。用户是动态的他们的兴趣、状态、目标都在变化一个静态的“用户档案”远远不够。Memobase正是为了解决这个问题而生。它不是一个简单的记忆存储库而是一个基于用户画像的长期记忆系统。你可以把它想象成AI应用的“大脑皮层”专门负责处理、归纳、存储和调用与用户相关的所有信息。它的核心目标非常明确让AI能够真正地记住用户、理解用户并随着与用户的每一次互动而共同进化。我花了些时间深入研究了Memobase的设计和实现发现它的精妙之处在于它没有盲目追求在某个单一指标比如检索精度上做到极致而是在性能、成本和延迟三者之间找到了一个绝佳的平衡点。它借鉴了类似ChatGPT背后记忆系统的工作方式为每个用户维护一个实时可用的“用户画像”和“事件时间线”。这意味着当用户再次出现时AI无需进行耗时的预处理或复杂的向量检索仅通过几次快速的数据库查询通常在100毫秒内就能获取到关于该用户最核心的记忆并立即投入到流畅、个性化的对话中。2. Memobase的核心设计哲学与架构解析2.1 为什么是“用户画像”而非“对话片段”这是Memobase与许多其他“记忆”方案最根本的区别。很多方案将记忆等同于“存储过去的对话文本”然后在需要时通过语义搜索召回相关片段。这种方法存在几个问题信息冗余与噪声对话中充斥着大量无关紧要的寒暄、重复信息和上下文依赖的表述直接存储会导致检索结果质量低下。缺乏概括与抽象用户说“我上周刚看完《沙丘2》视觉效果太震撼了尤其是沙漠场景”。一个优秀的记忆系统应该从中抽象出“用户喜欢科幻电影”、“对电影视觉效果有要求”、“可能对《沙丘》系列或导演维伦纽瓦的其他作品感兴趣”等结构化信息而不是仅仅存储原句。无法支持复杂查询基于片段的记忆很难回答“我的用户里有多少人是软件工程师且喜欢徒步”这类需要交叉分析的问题。Memobase采用了“归纳-存储”的两阶段模型。首先它会利用LLM对原始对话称为Blob数据块进行实时或批量的分析从中提取出结构化的“事实”Profile画像条目例如{“topic”: “interest”, “sub_topic”: “movie_genre”, “content”: “sci-fi”}。这些事实被分类存储到预先定义好的画像架构中如basic_info,interest,work等。同时对话本身也会被压缩成一个“事件概要”Event Gist并按时间顺序记录在用户的时间线上。这样做的好处是显而易见的记忆变得可查询、可推理、可演化。AI不仅知道用户说过什么更“理解”了用户的特质。当用户提到“推荐部电影”时系统可以直接从画像中读取“喜欢科幻”这一属性并结合时间线中“刚看过《沙丘2》”的事件给出更精准的推荐。2.2 性能、成本与延迟的三角平衡术在实际生产环境中引入记忆系统绝不能以牺牲用户体验或大幅增加运营成本为代价。Memobase在架构设计上对此做了深思熟虑的权衡。性能效果虽然Memobase主要目标不是替代RAG进行文档搜索但其在用户记忆检索任务上的表现依然顶尖。在LOCOMO等公开基准测试中它凭借对事件时间线的精细检索和对用户画像的结构化利用取得了领先的结果。这意味着它提取的记忆相关性高对提升对话质量有实质帮助。LLM调用成本这是最容易失控的部分。Memobase通过两个关键设计控制成本批处理缓冲区每个用户都有一个缓冲区。对话数据不会每轮都立即触发LLM分析而是积累到一定量如达到1024个tokens或空闲一段时间如1小时后才一次性提交给LLM进行归纳。这能将LLM调用的开销分摊到多次交互中显著降低平均成本。精简的工作流Memobase内部没有设计复杂的多智能体链条。从0.0.40版本开始一次flush操作固定只进行约3次LLM调用用于提取画像、生成事件概要等相比之前版本降低了40-50%的token消耗。其提示词也经过精心设计避免开放式生成导致token膨胀。在线延迟为了确保对话的实时性Memobase确保核心的contextAPI获取记忆上下文的响应时间极短。因为它不需要在每次请求时都调用LLM而是直接查询已处理好的、结构化的用户画像和索引好的事件时间线。大部分工作已在离线的flush阶段完成在线阶段主要是高效的数据库查询和文本组装延迟可控制在100毫秒以下。这种设计使得Memobase非常适合需要高并发、实时响应的生产级应用在提供强大记忆能力的同时保持了经济的运营成本和优秀的用户体验。2.3 可控与可配置的记忆蓝图一个危险的误区是认为“AI记住关于用户的一切就是好的”。实际上无关或敏感的记忆可能会干扰对话甚至引发隐私问题。Memobase将控制权交还给开发者。你可以通过配置文件深度定制Memobase的“记忆蓝图”定义画像结构你完全可以决定系统关注用户的哪些方面。是只记录basic_info姓名、语言和interest兴趣还是需要深入记录psychological心理特质或work工作信息你可以像定义数据库Schema一样定义你的画像模板。控制记忆粒度你可以设定哪些类型的信息需要被提取以及提取的详细程度。例如对于“喜欢的食物”是记录“喜欢中餐”这样的大类还是“特别喜欢川菜中的麻婆豆腐”这样的细节设置数据保留策略默认情况下原始的对话Blob在处理后会被删除只有结构化的Profile和Event Gist被保留。这既符合隐私设计原则也减少了存储开销。当然你也可以根据合规要求配置不同的留存策略。这种可控性确保了记忆系统与你的产品目标对齐只存储和利用那些真正能提升体验的用户信息。3. 从零开始Memobase的完整实操指南3.1 环境准备与部署选择开始使用Memobase你首先需要一个运行中的Memobase服务端。你有两个主要选择方案一使用Memobase Cloud最快上手对于大多数开发者和初创团队我强烈建议直接从Cloud开始。它提供了一个免费的额度足够进行功能验证和小规模测试。访问 Memobase官网 注册并登录。在控制台创建一个新项目。获取你的项目URL(类似https://api.memobase.dev) 和项目令牌(类似sk-proj-xxxxxx)。这两个是后续连接的关键凭证。方案二本地部署完全控制如果你对数据主权、定制化有更高要求或者需要与现有基础设施集成可以选择本地部署。Memobase服务端使用FastAPI、PostgreSQL和Redis构建并提供了完整的Docker配置。克隆Memobase仓库git clone https://github.com/memodb-io/memobase.git进入服务器目录cd memobase/src/server根据readme.md的指引配置环境变量特别是数据库连接和API密钥。使用docker-compose up -d启动所有服务。本地服务的默认项目URL是http://localhost:8019默认项目令牌是secret。实操心得环境选择如果你是第一次接触或正在快速原型验证毫不犹豫选择Cloud版。它能帮你跳过所有环境配置的坑专注于API集成和功能开发。等到业务逻辑跑通需要压测或深度定制时再考虑迁移到自部署。自部署时务必注意PostgreSQL的性能调优和Redis的持久化配置这对生产环境的稳定性至关重要。3.2 客户端集成与基础操作服务就绪后就可以在应用中集成Memobase了。它提供了Python、Node.js、Go的SDK以及直接的REST API。这里以Python为例其他语言逻辑类似。安装与连接pip install memobasefrom memobase import MemoBaseClient # 使用你的项目URL和令牌 PROJECT_URL https://api.memobase.dev # 或 http://localhost:8019 PROJECT_TOKEN sk-proj-xxxxxx # 或 secret client MemoBaseClient( project_urlPROJECT_URL, api_keyPROJECT_TOKEN, ) # 测试连接 if client.ping(): print(✅ 成功连接到Memobase服务端) else: print(❌ 连接失败请检查URL和令牌)用户生命周期管理在Memobase中一切记忆都围绕“用户”展开。每个用户有一个唯一的uid。# 1. 创建用户。可以附带初始元数据比如注册渠道、设备信息等。 user_meta {signup_channel: website, plan: free_trial} uid client.add_user(user_meta) print(f新用户创建成功UID: {uid}) # 2. 更新用户元数据例如用户升级了套餐 client.update_user(uid, {plan: premium}) # 3. 获取用户对象后续操作都基于这个对象 user client.get_user(uid) # 4. 谨慎操作删除用户及其所有记忆 # client.delete_user(uid)3.3 注入对话数据与触发记忆处理记忆的来源是用户与AI的交互。在Memobase中每一次交互会话无论是单条消息还是一整段对话都被包装成一个Blob数据块插入。插入对话数据from memobase import ChatBlob # 模拟一段对话 conversation_turn_1 [ {role: user, content: 你好我叫小明是一名在北京工作的前端工程师。}, {role: assistant, content: 你好小明前端工程师的工作很有趣啊你主要用什么技术栈}, {role: user, content: 主要用React和TypeScript。平时喜欢打篮球和看电影。} ] # 将这段对话作为一个Blob插入到对应用户下 blob_id user.insert(ChatBlob(messagesconversation_turn_1)) print(f对话数据已插入Blob ID: {blob_id}) # 你可以立即获取这个Blob在flush之前 print(user.get(blob_id))关键理解缓冲区与Flush这里有一个非常重要的概念insert操作只是将数据放入了该用户的缓冲区并没有立即进行昂贵的LLM分析处理。Memobase会等待以下条件之一被触发缓冲区数据量达到配置的阈值如token数。缓冲区空闲时间超过阈值如1小时。你手动调用flush()方法。这种设计是Memobase实现低成本和低延迟的关键。批处理大大减少了LLM的调用频率。手动触发记忆处理当你认为一个对话会话自然结束例如用户关闭了聊天窗口或者你需要立即获取最新的用户画像时可以手动刷新缓冲区。# 同步刷新等待处理完成后再继续执行后续代码 user.flush(syncTrue) print(用户缓冲区已处理记忆已更新。) # 异步刷新默认不阻塞当前线程处理在后台进行 # user.flush(syncFalse)注意事项Flush的时机不要在每个insert后都调用flush这完全丧失了批处理的优势。合理的策略是在对话会话边界调用例如在聊天界面关闭时、每天固定时间点针对低频应用、或者当缓冲区积累了一定量的新信息时。对于实时性要求极高的场景可以适当调小缓冲区的token阈值。3.4 获取与利用结构化记忆数据处理完成后宝贵的结构化记忆就生成了。主要通过两个核心API来获取profile()和context()。获取完整的用户画像profile()返回一个结构化的字典包含了从所有历史对话中提炼出的用户信息。# 获取完整的JSON格式画像 full_profile user.profile(need_jsonTrue) print(full_profile) # 输出示例 # { # basic_info: { # name: {content: 小明, ...}, # occupation: {content: 前端工程师, ...}, # location: {content: 北京, ...} # }, # interest: { # sports: {content: 篮球, ...}, # hobbies: {content: 看电影, ...} # }, # work: { # tech_stack: {content: React, TypeScript, ...} # } # // ... 更多分类 # }你可以像操作任何JSON数据一样从中提取信息用于业务逻辑比如个性化推荐、用户分群等。获取用于提示词工程的记忆上下文这是将记忆融入AI对话最直接的方式。context()API 会将相关的记忆和近期事件格式化成一段清晰的文本方便你直接拼接到系统提示词System Prompt或用户提示词中。# 获取最多500个token的记忆上下文并优先包含“basic_info”主题下的记忆 memory_context user.context(max_token_size500, prefer_topics[basic_info]) print(memory_context)输出会类似于# 记忆 除非用户有相关询问否则不要在对话中主动提及这些记忆。 ## 用户背景 - basic_info:name: 小明 - basic_info:occupation: 前端工程师 - basic_info:location: 北京 - interest:sports: 篮球 - interest:hobbies: 看电影 - work:tech_stack: React, TypeScript ## 近期事件 - [2小时前] 用户介绍了自己的姓名、职业和所在地。 - [2小时前] 用户提到了自己的技术栈和兴趣爱好。你可以这样使用它system_prompt f 你是一个友好的AI助手。以下是你所服务的用户的背景信息请在与ta对话时自然地体现这些了解提供个性化的服务。 {memory_context} 请开始与用户对话。 # 然后将 system_prompt 发送给你的LLM如OpenAI, Claude等实操心得prompt工程技巧控制token数量max_token_size参数非常重要。你需要根据所用LLM的上下文窗口和你的提示词其他部分的大小来权衡。通常300-800是一个安全范围。主题偏好prefer_topics参数允许你引导记忆检索的方向。如果当前对话是关于推荐电影的你可以设置prefer_topics[“interest”]让系统优先返回与兴趣相关的记忆。提示词模板从0.0.36版本开始你甚至可以传递一个自定义的提示词模板给context()API让Memobase按照你指定的格式来组织记忆文本集成更加灵活。4. 高级特性与生产级实践4.1 自定义你的记忆蓝图开箱即用的默认画像模板可能不完全符合你的产品需求。Memobase允许你深度定制。你需要修改服务端的配置文件通常是config.yaml。# 示例一个简化版的定制配置 profile_schema: topics: - id: personal sub_topics: [name, age, city] description: 用户的个人基本信息 - id: product_engagement sub_topics: [favorite_feature, usage_frequency, pain_points] description: 用户对本产品的使用情况和反馈 - id: commercial_intent sub_topics: [budget, decision_timeframe, competitor_mentioned] description: 用户潜在的商业意图在这个例子中我们完全重新定义了记忆的类别使其更贴近一个SaaS产品的用户分析需求。系统将只会从对话中提取这三类信息忽略其他所有内容。定义好后重启Memobase服务即可生效。4.2 事件时间线回答“何时”的问题用户画像回答了“用户是谁”和“喜欢什么”而事件时间线Event Timeline则记录了“发生了什么”以及“何时发生”。这对于需要时间上下文的应用至关重要。例如用户问“我上周问你的那个关于Python装饰器的问题你能再总结一下吗” 一个只有画像的系统无法回答。但一个拥有时间线的系统可以检索到“大约7天前用户与助手进行了一场关于Python装饰器原理的讨论”这个事件从而关联到当时的对话内容如果原始Blob被保留或至少给出一个准确的回应“你指的是我们在X月X日讨论的装饰器用法吗”Memobase在每次flush时不仅会更新画像还会为这一批对话生成一个简洁的“事件概要”Event Gist并打上时间戳。context()API返回的“近期事件”部分就来源于此。在0.0.37版本引入的细粒度事件概要使得基于时间线的检索更加精准。4.3 与现有LLM开发生态集成Memobase设计上力求无缝接入现有技术栈。与LangChain/GPTs集成你可以将MemoBaseClient封装成一个LangChain Tool或Memory模块在Agent工作流中调用。也可以利用其API在构建GPTs时通过Actions来获取用户记忆。通过MCP集成Memobase提供了MCPModel Context Protocol服务器实现。这意味着它可以与支持MCP的AI开发环境如Claude Desktop, Cursor直接连接作为这些工具的“记忆”扩展。直接使用REST API所有功能都通过清晰的REST API暴露任何能发送HTTP请求的客户端都可以集成。4.4 监控、调试与性能优化在生产环境中使用你需要关注以下几点监控Flush状态异步flush是默认行为。你需要确保有机制监控flush是否失败例如网络问题导致LLM调用失败。客户端SDK应提供回调或日志功能服务端也应提供相应的健康检查和错误日志。调试记忆提取如果发现提取的记忆不准确或缺失Memobase应提供工具来回溯是哪个Blob被处理了LLM在处理时接收到的提示词和生成的原始输出是什么这对于调试和优化你的画像Schema至关重要。性能调优主要瓶颈可能在两个地方LLM API调用成本与延迟和数据库查询。对于自部署确保PostgreSQL有合适的索引特别是在user_id,topic,created_at字段上。对于Cloud版关注官方提供的用量监控和性能指标。5. 常见问题与故障排查实录在实际集成和测试中我遇到了一些典型问题以下是排查思路和解决方案。问题1调用user.profile()返回空字典或信息很少。可能原因A数据未处理。你插入了Blob但没有调用flush()。解决确保在插入数据后调用了user.flush(syncTrue)并检查其是否成功完成无异常抛出。可能原因Bflush处理失败。可能是LLM API密钥无效、网络超时或提示词配置错误。解决检查Memobase服务端日志。如果是Cloud版查看项目控制台是否有错误报告。确保你配置的LLM模型如OpenAI GPT-4有足够的权限和额度。可能原因C对话内容信息密度低或与当前画像Schema不匹配。解决尝试插入一段信息明确的对话如“我叫李华30岁是一名医生爱好是摄影和旅行”。然后flush并查看profile。如果依然为空检查服务端的画像Schema配置。问题2context()API返回的token数远超设定的max_token_size。可能原因max_token_size参数控制的是Memobase输出文本的token数量限制。但如果系统检索到的记忆条目本身非常详细例如一个content字段包含了长段落在格式化过程中可能难以精确裁剪。解决这是一个已知的权衡。可以尝试1) 优化你的画像Schema让提取的content更简洁2) 在调用context()后用自己的代码进行二次截断3) 向Memobase团队反馈该情况未来版本可能会优化裁剪算法。问题3自部署后服务响应变慢尤其是flush操作。可能原因A数据库性能瓶颈。默认的Docker配置可能未对PostgreSQL进行优化。解决调整PostgreSQL容器配置增加共享缓冲区shared_buffers、工作内存work_mem等。对于生产环境考虑使用独立的、性能更强的数据库实例。可能原因BLLM API调用延迟高。解决检查网络连接到LLM服务如OpenAI的延迟。考虑使用更快的模型如gpt-3.5-turbo代替gpt-4进行记忆提取在效果和速度间权衡或为Memobase配置请求超时和重试机制。可能原因CRedis缓存未命中或配置不当。解决确保Redis服务正常运行并且Memobase配置了正确的Redis连接信息。检查是否有大量的缓存穿透。问题4如何区分不同会话或场景下的记忆场景同一个用户在工作场景和娱乐场景下与AI聊天的内容希望有所隔离。Memobase方案Memobase的核心模型是基于“用户”的而非“会话”。要实现会话隔离有几种实践思路利用用户元数据在创建或更新用户时为不同场景创建不同的user_id虽然物理上是两个用户但你可以通过一个共同的“主用户ID”在业务逻辑上关联它们。这是最彻底的隔离。利用画像Topic在自定义Schema中增加一个context或session_type的Topic。在插入Blob时可以通过Blob的元数据metadata字段来标记会话类型。Memobase的LLM处理流程可以设计为将此类信息也提取到画像中。之后在调用context()时可以通过prefer_topics或未来可能支持的过滤条件来获取特定场景的记忆。应用层过滤获取全部记忆后在应用层根据时间戳或其他业务规则进行过滤。问题5记忆的更新与冲突解决场景用户之前说“我喜欢狗”后来又说“我其实更爱猫”。系统如何处理Memobase机制Memobase的画像条目Profile Item是带有置信度、来源和时间戳的。当提取到关于同一topic和sub_topic如interest:pets的新内容时系统并非简单覆盖而是可以配置合并策略例如保留最新的、或通过置信度加权合并。你需要查阅文档或配置了解当前版本的具体合并逻辑。通常更近期、更明确置信度高的陈述会占主导地位。事件时间线会忠实记录所有对话的发生因此你可以追溯用户的观点变化过程。Memobase将一个复杂的“AI记忆”问题拆解成了可管理、可配置、可观测的工程问题。它没有追求炫技般的复杂架构而是紧扣“为用户服务”这个核心在效果、成本和速度之间做出了扎实的平衡。从我实际测试和集成的体验来看它确实能显著提升AI应用的对话连贯性和个性化程度而引入的复杂度和成本又在可接受的范围内。对于任何希望为自己的LLM应用添加“长期记忆”能力的团队Memobase都是一个非常值得认真评估的选择。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2596750.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…