构建跨AI助手的通用记忆层:从向量检索到浏览器扩展实践

news2026/5/10 8:09:16
1. 项目概述一个被归档的浏览器记忆层工具如果你和我一样经常在ChatGPT、Claude、Perplexity这些不同的AI助手之间切换肯定会遇到一个共同的烦恼每次对话都像是第一次见面。你需要在每个新对话里重复介绍自己是谁、你的项目背景是什么、你之前讨论过哪些关键点。这不仅效率低下也让AI助手的“智能”体验大打折扣因为它们缺乏一个持续、连贯的“记忆”。今天要聊的这个项目——mem0-chrome-extension正是为了解决这个问题而生的。它的核心目标是构建一个“通用记忆层”Universal Memory Layer。简单来说它就像给你的所有AI助手装上一个共享的“外置大脑”。无论你在哪个平台的聊天窗口这个浏览器扩展都能在后台默默工作自动从你的对话中提取关键信息比如你的职业、项目细节、偏好设定并将这些“记忆”存储起来。当你在另一个AI助手那里开启新对话时它又能智能地检索出相关的记忆并自动注入到上下文中让AI“记得”你之前说过什么。这个想法非常棒它直击了当前多AI工具并用的核心痛点。然而正如项目仓库顶部那个醒目的警告框所示这个Chrome扩展项目目前已经被归档Archived不再被官方主动维护。这意味着虽然它的代码开源MIT协议你可以自由地 fork 和二次开发但不会再收到官方的功能更新或 bug 修复。项目团队将重心转向了他们的核心产品 Mem0 。对于我们这些技术爱好者或开发者来说这既是一个遗憾也是一个机会。我们可以深入剖析这个项目的设计思路、技术实现理解它如何工作并思考如何借鉴其理念甚至基于它构建更符合自己需求的自托管方案。2. 核心设计思路与技术架构解析2.1 什么是“跨LLM记忆层”在深入代码之前我们得先搞清楚它要解决的根本问题。当前的AI大语言模型LLM无论是ChatGPT、Claude还是其他本质上都是“无状态”的。你提供给模型的对话历史就是它全部的“记忆”。一旦对话窗口关闭或上下文长度耗尽模型关于这次对话的一切“记忆”就消失了。虽然一些平台如ChatGPT推出了官方的“记忆”功能但它们是孤立的、平台绑定的。mem0-chrome-extension 的野心在于打破这种孤岛。它的设计思路可以概括为“一个中心化的记忆存储服务 一个分布式的浏览器端采集与注入代理”。记忆的采集Capture扩展程序需要监听你在不同AI助手网页如chat.openai.com, claude.ai, perplexity.ai上的对话。它不能简单粗暴地截取所有文本那样会包含大量无关信息。它需要智能地判断哪些是“值得记忆”的用户输入和AI回复比如包含具体事实、个人偏好、任务指令的语句。记忆的存储与向量化Store Embed采集到的文本片段被发送到后端的Mem0 API服务。该服务的核心任务是将这些文本转换成“向量”即一组数字这个过程叫做“嵌入”Embedding。语义相近的文本其向量在数学空间中的距离也更近。这些向量连同原始文本被存储到专门的向量数据库中。记忆的检索Retrieve当你在某个AI助手开始新对话或输入新消息时扩展程序会将当前对话的上下文或你的新问题也发送给Mem0 API。API服务将其同样转换为向量然后在向量数据库中进行相似度搜索找出与你当前语境最相关的几条历史“记忆”。记忆的注入Inject检索到的相关记忆文本被扩展程序巧妙地“注入”到你当前对话的上下文中。对于ChatGPT或Perplexity它可能模拟“按回车”发送一条预设的系统提示对于Claude它可能通过点击一个按钮来触发。这样AI模型在生成回复时就能“看到”这些来自过去的上下文从而实现“记忆”效果。2.2 项目技术栈与模块拆解虽然项目已归档但其技术选型依然值得学习。作为一个Chrome扩展它必然包含以下核心部分扩展基础结构Manifest V3项目根目录的manifest.json文件是扩展的“身份证”和“说明书”定义了扩展的名称、权限、后台脚本、内容脚本、弹出页面等。Mem0扩展需要申请诸如activeTab、storage以及访问特定网站如*://chat.openai.com/*的权限以便与AI助手页面交互。内容脚本Content Scripts这是与网页交互的核心。扩展会向ChatGPT、Claude等目标网站注入特定的JavaScript脚本。这些脚本运行在网页的上下文中可以访问DOM监听用户的输入事件、消息发送事件从而捕获对话内容。同时它们也负责在页面上添加Mem0的交互按钮如Claude页面上的那个按钮并处理点击事件。后台服务脚本Background Service Worker在Manifest V3中后台页面被服务脚本Service Worker取代。它负责协调整个扩展的工作管理用户登录状态如Google Sign-In、与Mem0 API服务器通信、处理从内容脚本发来的消息如“捕获到一条新消息”、“请求检索相关记忆”、以及将检索到的记忆发送回对应的内容脚本。弹出页面Popup点击工具栏图标后出现的小窗口。通常用于展示快速设置、登录状态、记忆概览Dashboard或手动触发同步操作。构建与开发流程项目使用npm进行依赖管理和构建。package.json文件里定义了开发脚本如npm run build。构建过程很可能使用了像webpack或vite这样的打包工具将源代码可能是TypeScript编译、打包、压缩输出到dist目录以供Chrome加载。注意由于项目已归档直接使用其预编译的dist文件或按照原有流程构建可能会遇到依赖过时、API接口变更或兼容性问题。将其作为一个学习案例或二次开发的起点更为合适。2.3 记忆处理的核心逻辑猜想尽管我们无法直接运行其后端服务但通过扩展的行为可以推断Mem0 API的核心工作流程文本分块与清洗从对话中捕获的原始文本可能很长且杂乱。API首先需要对其进行清洗去除无关HTML标签、代码块标记等并切割成大小合适的“文本块”Chunking。分块策略如按句子、按段落、按固定长度重叠滑动窗口直接影响记忆检索的质量。嵌入模型Embedding Model这是记忆系统的“大脑”。Mem0很可能使用了如OpenAI的text-embedding-3-small、Cohere的嵌入模型或开源的all-MiniLM-L6-v2等模型将文本块转换为高维向量。模型的选择决定了系统对语义理解的深度和精度。向量数据库Vector Database存储和快速检索海量向量的关键。常见的选择有Pinecone、Weaviate、Qdrant或者使用PGVector插件的关系型数据库。当用户查询时系统计算查询向量的嵌入并使用近似最近邻ANN算法在数据库中快速找到最相似的几个向量即相关的记忆文本块。记忆的“相关性”与“新鲜度”一个好的记忆系统不能只返回“最相似”的记忆还要考虑记忆的“新鲜度”最近使用的记忆可能更重要和“重要性”用户明确标记或多次提及的信息可能更重要。这需要在检索算法中加入时间衰减因子或重要性权重。3. 从零开始手动构建与部署指南既然原项目不再维护如果我们想拥有一个类似的功能最可靠的路径就是理解其原理后自行搭建一个简化版或寻找替代方案。下面我将提供一个基于开源工具链的、可自托管的实现思路。3.1 环境准备与工具选型我们将构建一个最小可行系统包含一个简单的后端API和一个修改版的浏览器扩展。后端API替代Mem0 API语言Python因其在AI生态中库丰富。框架FastAPI轻量且异步支持好适合构建API。嵌入模型选用Hugging Face 上的开源句子转换模型如sentence-transformers/all-MiniLM-L6-v2。它体积小、速度快、效果不错且可离线运行无需OpenAI API密钥和费用。向量数据库为了简化我们使用ChromaDB。它是一个轻量级、易嵌入的向量数据库可以直接集成在Python应用中无需单独部署服务器。存储用户的记忆文本和向量将保存在本地目录由ChromaDB管理。浏览器扩展修改版我们将以原mem0扩展为蓝本修改其通信逻辑使其指向我们自建的API。需要修改的核心文件是负责与后端通信的JavaScript模块通常位于src/services/api.js或类似位置。3.2 后端API服务搭建步骤首先搭建我们的记忆服务器。# 1. 创建项目目录并初始化 mkdir my-mem0-server cd my-mem0-server python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate pip install fastapi uvicorn sentence-transformers chromadb pydantic # 2. 创建主应用文件 app.pyapp.py内容如下from fastapi import FastAPI, HTTPException, Header from pydantic import BaseModel from sentence_transformers import SentenceTransformer import chromadb from chromadb.config import Settings import uuid from datetime import datetime from typing import List, Optional app FastAPI(titleMy Mem0 API) # 初始化模型和数据库 print(Loading embedding model...) embedding_model SentenceTransformer(all-MiniLM-L6-v2) print(Model loaded.) # 使用持久化存储数据会保存在 ./chroma_data 目录 chroma_client chromadb.PersistentClient(path./chroma_data) # 获取或创建一个以用户ID命名的集合Collection相当于每个用户的独立记忆库 def get_user_collection(user_id: str): collection_name fmemories_{user_id} try: collection chroma_client.get_collection(namecollection_name) except: # 如果不存在则创建指定我们使用的嵌入模型维度384 对于 all-MiniLM-L6-v2 collection chroma_client.create_collection(namecollection_name, metadata{hnsw:space: cosine}) return collection # 数据模型定义 class MemoryItem(BaseModel): text: str source: Optional[str] web # 来源如 “chatgpt”, “claude” metadata: Optional[dict] {} # 可存放时间戳、对话ID等 class QueryItem(BaseModel): text: str user_id: str top_k: Optional[int] 5 # 返回最相关的几条记忆 # API端点1存储记忆 app.post(/api/memory) async def store_memory(item: MemoryItem, user_id: str Header(...)): 接收一段文本生成向量并存储到对应用户的记忆库 if not item.text.strip(): raise HTTPException(status_code400, detailText cannot be empty) collection get_user_collection(user_id) # 生成文本向量 embedding embedding_model.encode(item.text).tolist() # 生成唯一ID memory_id str(uuid.uuid4()) # 准备元数据 metadata item.metadata.copy() metadata.update({ source: item.source, timestamp: datetime.utcnow().isoformat(), text_preview: item.text[:100] # 存储预览便于调试 }) # 添加到集合 collection.add( embeddings[embedding], documents[item.text], metadatas[metadata], ids[memory_id] ) return {status: success, id: memory_id, message: Memory stored.} # API端点2检索相关记忆 app.post(/api/query) async def query_memory(query: QueryItem): 根据查询文本检索对应用户记忆库中最相关的记忆 collection get_user_collection(query.user_id) # 将查询文本转换为向量 query_embedding embedding_model.encode(query.text).tolist() # 在集合中查询 results collection.query( query_embeddings[query_embedding], n_resultsquery.top_k ) # 整理返回结果 memories [] if results[documents]: for i, doc in enumerate(results[documents][0]): memories.append({ text: doc, metadata: results[metadatas][0][i], distance: results[distances][0][i] # 距离越小越相关 }) return {query: query.text, memories: memories} app.get(/) async def root(): return {message: My Mem0 API is running.}关键点解释SentenceTransformer加载本地模型首次运行会从Hugging Face下载之后离线使用。ChromaDB以持久化模式运行所有数据保存在本地chroma_data目录不同用户的记忆通过不同的Collection隔离。user_id通过HTTP请求头传递这是一个简单的身份验证方式。在实际产品中你需要更安全的认证如JWT。/api/memory接口用于存储记忆/api/query用于检索记忆。启动服务uvicorn app:app --reload --host 0.0.0.0 --port 8000现在你的本地记忆API就在http://localhost:8000运行了。你可以用curl或 Postman 测试# 存储记忆 curl -X POST http://localhost:8000/api/memory \ -H Content-Type: application/json \ -H user_id: alice \ -d {text: I am a software engineer working on a Python backend project., source: chatgpt} # 检索记忆 curl -X POST http://localhost:8000/api/query \ -H Content-Type: application/json \ -d {text: What do I do for work?, user_id: alice, top_k: 3}3.3 修改浏览器扩展以对接自建API接下来我们需要修改原mem0扩展让它与我们刚搭建的API对话。获取并解构原扩展代码git clone https://github.com/mem0ai/mem0-chrome-extension.git cd mem0-chrome-extension浏览代码结构找到网络请求模块。通常会在src目录下比如src/lib/api.ts或src/services/mem0Service.js。关键修改点找到所有向https://api.mem0.ai或类似域名发起请求的代码。你需要将其替换为你本地或你部署的后端地址例如http://localhost:8000。同时修改请求的数据格式使其符合我们自定义的API接口。原代码可能类似async function storeMemory(text, source) { const response await fetch(https://api.mem0.ai/v1/memories, { method: POST, headers: { Authorization: Bearer ${apiKey}, Content-Type: application/json }, body: JSON.stringify({ text, source }) }); return response.json(); }修改后应类似async function storeMemory(text, source) { // 假设我们从扩展的存储中获取当前用户的ID const { userId } await chrome.storage.local.get([userId]); const response await fetch(http://localhost:8000/api/memory, { method: POST, headers: { Content-Type: application/json, user_id: userId || default-user // 传递用户ID }, body: JSON.stringify({ text, source }) }); return response.json(); }同样修改记忆查询函数指向http://localhost:8000/api/query。处理用户身份原扩展使用Google登录我们简化处理。可以在扩展弹出页面Popup增加一个输入框让用户手动设置一个唯一的userId并将其保存在chrome.storage.local中。所有后续请求都携带这个userId。更新构建与加载运行npm install和npm run build确保Node.js环境。打开Chrome的chrome://extensions开启“开发者模式”。点击“加载已解压的扩展程序”选择修改后项目下的dist目录。重要提示自建API使用http://localhostChrome扩展出于安全限制CORS策略可能需要你在后端API中配置正确的CORS头或者在启动Chrome时添加--disable-web-security标志仅限开发测试极不安全。生产环境必须使用HTTPS并正确配置CORS。例如在FastAPI中可以添加CORSMiddleware。4. 深入实操内容脚本与页面交互的细节要让扩展在第三方网页上工作内容脚本Content Script是关键。它需要精准地识别页面结构并与之交互。4.1 监听与捕获对话消息以ChatGPT网页为例其对话消息通常被包裹在特定的DOM元素中可能带有>// content-script.js (function() { use strict; // 1. 监听DOM变化因为聊天消息是动态加载的 const observer new MutationObserver((mutations) { for (const mutation of mutations) { if (mutation.addedNodes.length) { mutation.addedNodes.forEach((node) { // 检查新添加的节点是否是消息元素 if (node.nodeType 1 node.matches([data-message-author-roleuser])) { const userMessageText extractTextFromNode(node); if (userMessageText) { // 发送到后台脚本请求存储记忆 chrome.runtime.sendMessage({ type: CAPTURE_MEMORY, data: { text: userMessageText, source: chatgpt } }); } } }); } } }); // 开始观察整个body的变化 observer.observe(document.body, { childList: true, subtree: true }); // 2. 辅助函数从复杂的DOM节点中提取纯净的文本 function extractTextFromNode(node) { // 克隆节点以避免修改原DOM const clone node.cloneNode(true); // 移除可能存在的按钮、代码块工具栏等无关元素 clone.querySelectorAll(button, .code-block-toolbar, .copy-button).forEach(el el.remove()); // 返回文本内容并清理多余空白 return clone.textContent?.trim().replace(/\s/g, ); } // 3. 接收来自后台脚本的指令例如注入检索到的记忆 chrome.runtime.onMessage.addListener((request, sender, sendResponse) { if (request.type INJECT_MEMORIES) { const memories request.data.memories; const combinedText memories.map(m m.text).join(\n); // 将记忆文本填入输入框并模拟发送这需要非常谨慎且因网站而异 // injectIntoInputBox(combinedText); console.log(Memories to inject:, memories); } }); })();实操心得选择器策略网页结构会频繁更新。不能依赖固定的CSS选择器。更稳健的方法是寻找相对稳定的数据属性如>问题现象可能原因排查步骤与解决方案扩展图标不显示或无法点击1. 扩展未成功加载。2.manifest.json配置错误。3. 后台服务脚本崩溃。1. 打开chrome://extensions检查扩展是否已启用是否有错误信息。2. 检查浏览器控制台Console是否有扩展相关的错误。3. 检查后台脚本Service Worker的控制台在chrome://extensions页面点击对应扩展的“背景页”链接。内容脚本未在目标网站生效1.manifest.json中的content_scriptsmatches模式未覆盖目标URL。2. 脚本注入失败。1. 确认目标网站的完整URL是否匹配matches模式如*://chat.openai.com/*。2. 在目标网站按F12打开开发者工具在“Sources”标签页的“Content scripts”部分查看你的脚本是否已加载。无法与本地API通信CORS错误浏览器因同源策略阻止了跨域请求。1.后端解决在FastAPI应用中添加CORS中间件见下文代码。2.开发临时方案使用webpack-dev-server代理请求或使用允许CORS的浏览器扩展如Moesif CORS。生产环境必须使用方案1。记忆检索不准确或无关1. 嵌入模型不适合你的文本类型。2. 文本分块策略不佳。3. 查询文本本身不明确。1. 尝试不同的开源嵌入模型如paraphrase-multilingual-MiniLM-L12-v2对多语言支持更好。2. 调整分块大小和重叠度。对于对话可以尝试按“问答对”作为一个块。3. 在查询时可以尝试将当前对话的最后几条消息一起作为查询文本以提供更丰富的上下文。FastAPI CORS 配置示例添加到app.py开头from fastapi.middleware.cors import CORSMiddleware app.add_middleware( CORSMiddleware, allow_origins[chrome-extension://你的扩展ID], # 生产环境应指定确切来源 allow_credentialsTrue, allow_methods[*], allow_headers[*], )获取你的扩展ID在chrome://extensions页面找到你的扩展其URL类似chrome-extension://abcdefghijklmnopqrstuvwxyz123456/其中的字符串就是ID。5.2 项目优化与功能扩展思路虽然基础版本已经能工作但一个健壮、好用的系统还需要更多打磨记忆的更新与去重当前方案只是不断添加记忆。现实中信息会过时或重复。需要实现记忆的更新用新信息覆盖旧信息和去重基于向量相似度避免存储几乎相同的记忆。记忆的分类与打标允许用户手动或自动通过LLM总结为记忆打上标签如“工作”、“个人”、“学习”、“项目A”便于更精细的检索和管理。前端交互增强在AI助手的输入框附近添加一个不显眼的图标点击后可以预览即将被注入的记忆并允许用户手动选择或编辑给予用户完全的控制权。支持更多AI平台除了ChatGPT、Claude、Perplexity还可以适配Gemini、Coze、国内的大模型平台等。这需要为每个平台编写特定的内容脚本以适配其独特的页面结构。离线模式探索将嵌入模型和向量数据库全部集成到扩展中使用浏览器的IndexedDB存储向量。这样所有数据处理完全在本地进行隐私性最强但会受限于浏览器的存储空间和计算能力。这个被归档的mem0-chrome-extension项目为我们提供了一个绝佳的“跨AI记忆”概念验证。通过拆解其原理并动手搭建一个简化版本我们不仅获得了完全掌控自己数据的隐私优势也更深刻地理解了构建此类智能工具的技术细节与挑战。技术的演进往往如此一个项目的终点可能是更多人自定义起点。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2600047.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…