PowerMem:构建AI持久化记忆系统的混合检索与智能生命周期管理

news2026/5/2 20:50:20
1. 项目概述为AI应用构建持久化记忆中枢如果你正在开发AI智能体或者复杂的AI应用比如一个能记住用户偏好的聊天机器人或者一个需要跨会话追踪项目进度的智能助手那么“记忆”功能绝对是你绕不开的核心挑战。传统的做法可能是把对话历史一股脑塞进上下文但很快你就会遇到两个天花板一是上下文窗口有限二是随着对话轮次增加检索相关信息的效率会急剧下降导致响应变慢、成本飙升。这就是我最近深度使用和研究的PowerMem项目要解决的问题。它不是一个简单的键值存储而是一个专为AI时代设计的、功能完整的“持久化记忆系统”。简单来说它能让你的AI应用像人一样拥有长期记忆、联想能力和遗忘机制。这个由OceanBase团队开源的项目将向量检索、全文搜索和图检索三种技术“杂交”在一起再配上大语言模型驱动的智能记忆提取和艾宾浩斯遗忘曲线式的记忆衰减构建了一个非常扎实的工程化解决方案。我最初是被它的多模态支持和多智能体隔离特性吸引的。在实际项目中我们常常需要处理文本、图片甚至音频信息并且要确保不同AI角色之间的记忆既独立又可共享。PowerMem把这些复杂的需求都封装成了清晰的API和配置。更让我惊喜的是它提供了从Python SDK、命令行工具到带可视化面板的HTTP服务器的一整套工具链部署和集成异常灵活。无论是快速原型验证还是需要高可用的生产环境它都能很好地适应。接下来我会结合自己的使用经验从设计思路、核心功能拆解到一步步的实操部署为你完整呈现如何将PowerMem集成到你的AI项目中并分享一些官方文档里不会写的“踩坑”心得和性能调优技巧。2. 核心架构与设计哲学解析2.1 为什么是“混合检索”而非单一向量检索很多初涉AI记忆系统的开发者会直接选用向量数据库认为用嵌入向量表示一切就能解决相似性搜索问题。这其实是一个误区。向量检索擅长语义相似性比如“我喜欢喝咖啡”和“用户对咖啡因饮品有偏好”这类表述不同但意思相近的匹配。但它对精确术语、代号、产品型号或者特定日期如“2023年Q4财报”的查找能力很弱。PowerMem在设计之初就摒弃了“银弹”思维采用了混合检索Hybrid Search架构。它同时维护了三种索引向量索引用于捕获语义层面的相似性。全文检索索引用于基于关键词的精确或模糊匹配特别擅长处理专有名词、代码片段等。图索引用于建立记忆片段之间的关联关系实现“联想式”检索。例如记忆A“用户购买了产品X”和记忆B“产品X需要配件Y”可以通过图关系链接当查询“用户可能还需要什么”时能通过图遍历找到B。在实际查询时PowerMem会将用户查询同时发送给这三个“检索引擎”然后使用倒数排序融合Reciprocal Rank Fusion, RRF等算法对结果进行加权和重排。这意味着一次搜索背后系统同时从“意思像不像”、“字词对不对得上”、“逻辑关联强不强”三个维度进行了评估最终返回的综合结果远比你用单一方法要精准和健壮。实操心得不要小看图检索。在构建客服机器人时我们将用户的问题、解决方案、涉及的产品文档作为节点边代表“导致”、“解决”、“属于”等关系。当用户描述一个新问题时系统不仅能找到语义相似的历史工单还能通过图关系推荐相关的知识文档或解决方案步骤极大提升了回答的准确性和完整性。2.2 记忆的“智能生命周期”从摄入到遗忘PowerMem对记忆的处理不是一个简单的“存-取”过程而是一个智能管道Pipeline。这是它区别于普通存储系统的核心。2.2.1 记忆提取与结构化当你调用memory.add(“用户说周末想去爬山”)时系统并不会原封不动地存储这句原始文本。在后台它会调用你配置的LLM如GPT-4、Claude或本地模型对这段文本进行“理解”和“提炼”。LLM可能会提取出关键实体“周末”、“爬山”、用户意图“有户外活动意愿”、情感倾向“积极”以及可能与其他记忆的关联“用户之前提过喜欢大自然”。这个过程被称为LLM驱动的记忆提取。提取出的结构化信息元数据会和原始文本、生成的向量一起存储为后续的高效检索和关联打下基础。2.2.2 艾宾浩斯遗忘曲线让记忆更“人性化”这是PowerMem最具特色的功能之一。它模拟了人类大脑的遗忘规律为每条记忆赋予一个“记忆强度”值。这个强度会随着时间衰减衰减的曲线就是著名的艾宾浩斯曲线。强度高的记忆在检索时排名更靠前强度低于阈值的记忆甚至可能被自动归档或标记为“模糊”。这个机制带来了两大好处降低噪音频繁被提及或最近发生的、重要的事情高强度会优先被召回那些陈旧的、一次性的琐碎信息低强度则逐渐淡出避免污染当前的上下文。节省成本你可以配置系统当记忆强度低于某个值时在检索时直接忽略其向量或全文索引仅保留元数据从而大幅减少检索时的计算和IO开销。注意事项遗忘曲线的参数如初始强度、衰减速率需要根据业务场景调整。对于一个快速变化的客服场景衰减可以快一些对于一个记录用户长期偏好的个人助手衰减就应该慢一些。PowerMem支持全局和用户级别的配置这给了我们很大的调优空间。2.2.3 用户画像与多智能体隔离PowerMem引入了“用户”和“智能体”的概念。每个记忆条目都必须归属于一个user_id。同时你可以为记忆指定agent_id和scope。user_id用于构建跨会话的用户画像。系统会自动聚合同一用户的所有记忆分析其长期偏好、习惯和知识背景。agent_id和scope用于实现多智能体环境下的记忆隔离与共享。例如你可以设置scope“private”让某个记忆只对某个特定的AI助手可见也可以设置scope“team”让同一个团队内的多个AI助手共享记忆。这个设计非常优雅地解决了复杂AI应用中的权限和上下文管理问题。在我的一个多角色游戏NPC项目中每个NPC智能体都有自己的私有记忆对玩家的秘密同时所有NPC又能共享一些公共的世界知识scope“world”实现起来非常清晰。3. 从零开始部署与核心配置实战理论讲完了我们动手把它跑起来。PowerMem的部署非常灵活我们从最简单的本地开发模式开始。3.1 环境准备与安装首先确保你的Python版本在3.11及以上。我强烈建议使用虚拟环境如venv或conda来管理依赖。# 创建并激活虚拟环境 python -m venv powermem-env source powermem-env/bin/activate # Linux/macOS # powermem-env\Scripts\activate # Windows # 安装PowerMem核心包 pip install powermem安装完成后你会获得两个主要的命令行工具pmem(CLI) 和powermem-server(HTTP服务器)。3.2 核心配置详解.env文件的奥秘PowerMem的所有组件SDK, CLI, Server都共享一个.env文件来管理配置。这是项目的核心也是新手最容易卡住的地方。我们不要直接复制粘贴而是理解每个关键配置项。运行以下命令可以交互式地生成一个基本的.env文件pmem config init但我更推荐手动创建以便理解。以下是一个针对本地开发优化的.env配置示例及解读# .env # 1. 核心模型配置 - 决定记忆如何被理解和嵌入 # 使用OpenAI的模型进行记忆提取和查询理解 POWERMEM_LLM_PROVIDERopenai POWERMEM_LLM_MODELgpt-4o-mini OPENAI_API_KEYsk-your-openai-key-here # 使用OpenAI的文本嵌入模型 POWERMEM_EMBEDDING_PROVIDERopenai POWERMEM_EMBEDDING_MODELtext-embedding-3-small # OPENAI_API_KEY 已在上方设置这里共用 # 2. 存储后端配置 - 决定记忆存在哪里 # 使用SQLite最简单无需额外服务适合开发和轻量使用 POWERMEM_STORAGE_PROVIDERsqlite POWERMEM_SQLITE_DB_PATH./powermem.db # 如果你想使用OceanBase项目原生支持性能更强 # POWERMEM_STORAGE_PROVIDERoceanbase # POWERMEM_OCEANBASE_HOSTlocalhost # POWERMEM_OCEANBASE_PORT2881 # POWERMEM_OCEANBASE_USERroot # POWERMEM_OCEANBASE_PASSWORD # POWERMEM_OCEANBASE_DATABASEpowermem # 3. 检索相关配置 # 设置向量检索返回的最相似记忆条数 POWERMEM_VECTOR_SEARCH_LIMIT10 # 混合检索中向量、全文、图检索结果的融合权重可根据场景调整 POWERMEM_HYBRID_SEARCH_VECTOR_WEIGHT0.5 POWERMEM_HYBRID_SEARCH_FULLTEXT_WEIGHT0.3 POWERMEM_HYBRID_SEARCH_GRAPH_WEIGHT0.2 # 4. 记忆衰减配置 # 启用艾宾浩斯遗忘曲线 POWERMEM_FORGETTING_CURVE_ENABLEDtrue # 记忆强度衰减到多少以下时在检索中被视为“模糊”不参与主要排序 POWERMEM_FORGETTING_STRENGTH_THRESHOLD0.2配置要点解析LLM与Embedding分离注意LLM_PROVIDER和EMBEDDING_PROVIDER可以不同。例如你可以用昂贵的GPT-4做精细的记忆提取而用便宜的text-embedding-3-small甚至本地模型如BGE做向量化以优化成本。SQLite vs OceanBase对于绝大多数个人项目或原型SQLite完全足够。它单文件、零配置PowerMem会帮你自动建表。只有当你需要分布式、高并发或利用OceanBase的高级混合检索特性时才考虑部署OceanBase。从1.1.0版本开始甚至可以使用嵌入式SeekDB来运行OceanBase无需单独部署数据库服务这大大降低了体验门槛。权重调优混合检索的权重 (*_WEIGHT) 是重要的性能旋钮。如果你的场景更依赖语义理解如客服问答可以调高向量权重如果是文档检索如搜索代码库全文检索权重可能更重要。需要基于实际查询效果进行A/B测试。3.3 三种使用模式深度体验PowerMem提供了三种入口适应不同场景。3.3.1 Python SDK灵活集成这是最常用的方式适合将PowerMem嵌入到你的AI应用代码中。# 示例构建一个简单的用户偏好记忆体 import asyncio from powermem import Memory, auto_config from powermem.models import MemoryItem async def main(): # 自动从当前目录的.env文件加载配置 config auto_config() # 初始化记忆系统 memory Memory(configconfig) # 场景1添加记忆 # 添加一条关于用户偏好的记忆并打上“preference”标签 await memory.add( content用户在聊天中多次提到他喝咖啡不喜欢加糖但一定要加全脂牛奶。, user_iduser_001, agent_idassistant, tags[preference, beverage], metadata{source: conversation_20240415} # 可附加任意自定义元数据 ) # 场景2智能搜索 # 当用户提到“喝点热的”时系统应能联想到咖啡偏好 query 用户想喝点热饮有什么建议吗 results await memory.search( queryquery, user_iduser_001, limit5 ) print(检索到的相关记忆) for mem in results.get(results, []): print(f- 强度 {mem[strength]:.2f}: {mem[content]}) # 输出可能包含上面添加的关于咖啡加奶不加糖的记忆 # 场景3获取并利用用户画像 # 系统会自动聚合该用户的所有记忆生成动态画像 profile await memory.get_user_profile(user_iduser_001) print(f\n用户画像摘要{profile.get(summary)}) # 画像可能包含“该用户偏爱无糖饮品对乳制品有特定偏好全脂牛奶”等信息 if __name__ __main__: asyncio.run(main())3.3.2 CLI工具 (pmem)运维与调试利器命令行工具非常适合做批量操作、数据迁移和调试。# 1. 添加记忆 pmem memory add 项目会议决定下周启动A/B测试由Alice负责。 --user-id project_alpha --tags decision,meeting --agent-id planner # 2. 搜索记忆 pmem memory search 谁负责A/B测试 --user-id project_alpha # 输出会显示相关的记忆条目包括内容、强度、来源等。 # 3. 启动交互式ShellREPL pmem shell # 进入一个交互式环境可以执行所有命令方便进行多次探索性查询。 # (pmem) search 测试 --user-id project_alpha --limit 3 # 4. 数据备份与迁移重要 # 将SQLite中的数据备份到JSON文件 pmem backup --output ./memories_backup.json # 从JSON文件恢复到另一个PowerMem实例如更换了数据库 pmem restore --input ./memories_backup.json3.3.3 HTTP API Server Dashboard可视化与集成对于提供服务的应用或者想直观查看记忆数据HTTP服务器是最佳选择。# 启动服务器默认端口8000Dashboard在 /dashboard/ powermem-server --host 0.0.0.0 --port 8000启动后打开http://localhost:8000/dashboard/你会看到一个Web管理界面。在这里你可以浏览所有记忆按用户、智能体、标签筛选。可视化记忆关系图直观看到记忆片段之间的图关联。手动管理记忆编辑、删除或手动调整记忆强度。执行即席查询测试混合检索的效果。对于生产环境可以使用Docker Compose来运行它包含了服务器和OceanBase数据库如果需要的配置。# docker/docker-compose.yml 简化版示例 version: 3.8 services: powermem-server: image: oceanbase/powermem-server:latest ports: - 8000:8000 environment: - POWERMEM_STORAGE_PROVIDERoceanbase - POWERMEM_OCEANBASE_HOSTob-server - POWERMEM_OCEANBASE_PORT2881 depends_on: - ob-server volumes: - ./data:/app/data # 持久化配置等数据 ob-server: image: oceanbase/oceanbase-ce:latest # ... OceanBase具体配置4. 高级特性与集成方案4.1 多模态记忆不止于文本PowerMem从0.2.0版本开始支持多模态。这意味着你可以存储和检索图像、音频的记忆。其原理是使用多模态大模型如CLIP将图像和音频转换为统一的向量表示与文本向量存储在同一个向量空间中。# 假设有一张用户上传的咖啡拉花图片 image_path ./latte_art.jpg with open(image_path, rb) as f: image_data f.read() await memory.add( content用户分享了一张精致的咖啡拉花照片图案是心形。, # 文本描述 user_iduser_001, raw_dataimage_data, # 原始图像二进制数据 data_typeimage # 指定数据类型 ) # 后续即使用户用文字查询“我上次发的那张有图案的咖啡图” # 系统也能通过多模态嵌入向量找到这张图片记忆。实操心得多模态存储会显著增加向量维度和存储开销。务必确保你的嵌入模型支持多模态并且合理设置POWERMEM_VECTOR_SEARCH_LIMIT避免检索性能下降。对于音频通常需要先转成文本摘要再存储原始音频数据可以作为raw_data附件保存。4.2 与现有AI框架集成LangChain LangGraphPowerMem提供了良好的兼容性。通过其LangChain集成你可以轻松地将它作为VectorStore或Memory后端。from langchain.memory import ConversationSummaryMemory from powermem.langchain import PowerMemMemory # 将PowerMem包装为LangChain的记忆组件 langchain_memory PowerMemMemory( memorymemory, # 之前创建的PowerMem Memory实例 user_iduser_001, return_messagesTrue # 返回LangChain的Message对象 ) # 然后就可以在LangChain的Chain中使用了 from langchain.chains import ConversationChain from langchain_community.chat_models import ChatOpenAI llm ChatOpenAI(modelgpt-4) conversation ConversationChain( llmllm, memorylangchain_memory, # 使用PowerMem作为长期记忆 verboseTrue )对于更复杂的多智能体工作流LangGraph是更好的选择。PowerMem的“用户/智能体/作用域”模型与LangGraph的Agent状态管理可以无缝结合。你可以在每个Agent的节点中读写其专属作用域的记忆并在需要协作时访问共享作用域的记忆。官方提供的examples/langgraph示例是一个完整的客户服务机器人非常值得参考。4.3 性能调优与监控当记忆条目达到十万、百万级时性能调优至关重要。索引优化如果使用OceanBase或PostgreSQL确保为向量列创建了高效的索引如HNSW。PowerMem在初始化时会尝试创建但需要数据库用户有相应权限。检索策略分页在search时使用limit和offset避免一次性拉取过多数据。过滤前置充分利用user_id,agent_id,tags,start_time,end_time等过滤条件这些过滤会在向量检索之前执行能极大缩小搜索范围。调整混合权重根据你的查询日志分析如果大部分成功查询都依赖关键词可以适当提高全文检索的权重因为它通常比向量检索更快。监控HTTP Server的Dashboard提供了一些基础监控。对于生产环境建议通过暴露的Metrics端点如果支持或数据库慢查询日志来监控检索延迟和内存使用情况。重点关注p95和p99延迟。5. 常见问题与故障排查实录在实际部署和开发中我遇到了一些典型问题这里分享排查思路。问题1pmem或powermem-server命令找不到。原因通常是因为虚拟环境未激活或安装后PATH未更新。解决确保在安装PowerMem的虚拟环境中操作。可以尝试pip install --upgrade powermem重新安装或使用python -m powermem.cli代替pmem。问题2检索结果不相关或为空。排查步骤检查嵌入模型确认POWERMEM_EMBEDDING_MODEL是否匹配。不同模型生成的向量空间不同混用会导致无法匹配。检查原始记忆内容通过Dashboard或pmem memory list查看记忆是否成功存入内容是否正确。检查查询语句尝试用非常简单的关键词搜索排除查询语句过于复杂的问题。调整混合权重如果怀疑是某种检索方式失效可以尝试在.env中临时将其他权重设为0只测试一种如只设VECTOR_WEIGHT1.0看是否生效。查看日志启动服务器时增加--log-level DEBUG参数查看详细的检索过程日志。问题3与OpenClaw集成时插件安装成功但无法使用。原因OpenClaw的memory-powermem插件需要能正确连接到PowerMem服务HTTP Server。解决确保PowerMem HTTP Server正在运行且网络可达。在OpenClaw的配置中正确设置PowerMem服务器的URL通常是http://localhost:8000和API密钥如果配置了认证。检查OpenClaw和PowerMem的版本兼容性最好使用官方文档中标注的兼容版本。问题4记忆强度衰减过快或过慢。原因艾宾浩斯曲线的参数不适合当前业务节奏。解决调整.env中的遗忘曲线参数。主要参数是衰减常数。PowerMem可能通过POWERMEM_FORGETTING_DECAY_RATE之类的环境变量暴露请查阅最新文档。如果没有你可能需要通过代码在初始化Memory时传入自定义的衰减函数。核心思路是访问频率高、关联多的记忆其强度衰减应该更慢。问题5使用OceanBase时连接失败。排查步骤确认OceanBase服务状态使用obclient或其它工具连接确保服务正常。检查网络和端口确认PowerMem应用所在机器能访问OceanBase的host:port。检查账号权限连接用户需要有创建数据库、表、索引的权限。尝试嵌入式SeekDB如果只是为了测试PowerMem功能而非OceanBase本身可以考虑使用1.1.0版本引入的嵌入式SeekDB模式它无需单独部署OB实例简化了本地开发。最后再分享一个关于数据迁移的小技巧。当你从开发环境SQLite迁移到生产环境OceanBase时除了使用pmem backup/restore命令还可以考虑编写一个简单的Python脚本使用SDK从源记忆实例读取再写入目标实例。这样可以更灵活地处理数据转换和过滤。记住在操作生产数据前一定要先备份。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2576097.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…