本地AI智能体框架NagaAgent:基于开源大模型的规划与工具调用实践

news2026/5/14 5:07:43
1. 项目概述一个被低估的本地AI智能体框架最近在折腾本地大模型应用特别是想搞点能自己跑起来的智能体Agent发现了一个挺有意思但讨论度不高的项目——RTGS2017/NagaAgent。乍一看这个标题可能会觉得有点神秘像是某个内部代号。实际上它就是一个开源的、旨在本地环境运行的AI智能体框架。它的核心目标很明确让你能在自己的电脑上不依赖云端API部署和运行一个具备规划、工具调用和记忆能力的AI助手。为什么说它被低估了因为现在一提到AI智能体大家首先想到的可能是那些需要调用GPT-4、Claude等昂贵云端模型的方案或者是像AutoGPT、LangChain这类生态庞大但配置复杂的框架。NagaAgent走的是一条更“接地气”的路线它优先考虑本地化、轻量化和可控性。这意味着你可以用开源的、参数更小的模型比如Qwen2.5-7B-Instruct、Llama 3.2-3B等来驱动它所有数据都在本地处理没有隐私泄露的担忧也没有按Token计费的成本压力。对于开发者、研究者或者只是对AI感兴趣、想深度定制一个私人助理的极客来说这种方案有着独特的吸引力。我自己尝试部署和把玩了一段时间感觉它就像是一个“乐高积木”式的智能体底座。它提供了智能体运行所需的核心机制——比如基于大语言模型LLM的任务分解与规划、一套可扩展的工具调用接口、以及维持对话上下文的记忆管理——但并没有把一切都封装死。你可以相对自由地选择后端模型、自定义工具、调整交互逻辑。接下来我就结合自己的实操把这个项目的里里外外、从设计思路到踩坑经验系统地拆解一遍。2. 核心架构与设计哲学解析2.1 为什么选择本地化智能体架构在深入代码之前我们先聊聊NagaAgent的设计出发点。当前AI应用开发有一个明显的矛盾云端大模型能力强大但成本高、有延迟、存在数据安全风险本地小模型私密、快速、零成本但能力相对有限。NagaAgent的立场很清晰它坚定地站在本地小模型这一边并试图通过精巧的架构设计来弥补能力上的差距。它的核心哲学是“分工与协作”。一个复杂的用户请求例如“帮我查一下北京明天天气然后根据天气建议我是否该洗车最后把这个建议用邮件模板整理出来”直接扔给一个7B参数的本地模型它很可能处理得一塌糊涂。但NagaAgent的架构将这个任务拆解了规划层Planner由一个专门的LLM或同一个LLM的不同调用负责理解用户意图并将其分解成一系列可执行的子任务步骤比如[步骤1: 调用天气查询工具获取北京明天天气 步骤2: 根据天气条件判断洗车建议 步骤3: 调用邮件模板生成工具]。执行层Executor另一个模块负责按顺序执行这些步骤。执行的核心是“工具调用”。框架内置或允许你自定义一系列工具Python函数比如get_weather(city),judge_wash_car(weather_condition),generate_email_template(suggestion)。执行器会调用相应的工具并获取结果。记忆层Memory负责存储和管理对话历史、工具执行结果等上下文信息确保智能体在多轮对话中“记得住”之前发生了什么。这种架构的优势在于它将需要“创造性思考”的规划工作和需要“精准操作”的工具执行工作分开了。本地小模型可能不擅长直接写一封文笔优美的邮件但它足够胜任“理解任务-拆解步骤-调用工具”这样的规划工作。而具体的“写邮件”动作则由一个确定性的、专门化的工具函数来完成保证了结果的可靠性和格式的正确性。2.2 NagaAgent的核心组件拆解理解了设计哲学我们来看NagaAgent的具体实现。它的代码结构通常比较清晰主要包含以下几个核心模块Agent Core智能体核心这是大脑协调规划、执行和记忆的整个工作流。它接收用户输入触发规划器然后监督执行器一步步运行最后整合结果返回给用户。Planner Module规划模块它的输入是用户请求和当前对话历史来自记忆输出是一个结构化的任务计划Plan。这个计划通常是一个步骤列表Step List。规划模块的实现高度依赖后端LLM它需要向LLM发送精心设计的提示词Prompt引导LLM进行任务分解。NagaAgent的亮点之一在于它对提示词的工程化处理针对本地小模型的特点进行了优化例如使用更清晰的指令、提供更多示例Few-shot Learning、限制输出格式等。Toolkit工具集这是智能体的“双手”。一套预定义或用户自定义的Python函数集合。每个工具都有明确的名称、描述、参数列表和实现代码。例如一个文件读取工具的描述可能是“read_file(file_path: str) - str: 读取指定路径的文本文件内容并返回。” 这个描述对于LLM至关重要因为规划器需要根据这些描述来决定在什么情况下调用哪个工具。Executor执行器负责加载工具集并实际调用规划器指定的工具。它会处理参数传递、错误捕获并将工具执行结果返回给核心同时更新记忆。Memory记忆模块通常采用类似“对话摘要”或“关键信息提取”的方式而不是完整存储所有历史Token以节省上下文窗口。它可能维护一个短期记忆当前会话和一个长期记忆向量数据库存储的历史关键点供规划时检索。这种模块化设计带来了极大的灵活性。你可以替换后端LLM从Qwen换到Llama可以增删工具给它加上控制智能家居的接口也可以调整记忆策略而不需要重写整个系统。3. 环境部署与快速启动实战理论讲得再多不如动手跑起来。下面是我在Linux系统Ubuntu 22.04上从零部署NagaAgent的完整过程Windows和macOS在依赖安装上略有不同但核心步骤一致。3.1 基础环境与依赖准备首先确保你的机器有Python环境建议3.9-3.11版本和pip包管理器。然后我们需要安装一些核心依赖。# 1. 克隆项目仓库假设项目托管在GitHub上 git clone https://github.com/RTGS2017/NagaAgent.git cd NagaAgent # 2. 创建并激活一个独立的Python虚拟环境强烈推荐避免依赖冲突 python -m venv venv source venv/bin/activate # Windows下使用 venv\Scripts\activate # 3. 安装项目依赖 # 通常项目会提供requirements.txt文件 pip install -r requirements.txt注意requirements.txt文件是项目的依赖清单。如果项目没有提供或者安装过程中出现版本冲突你可能需要根据错误信息手动安装或调整版本。常见的核心依赖包括transformers加载本地模型、torch深度学习框架、langchain可能用于工具或记忆抽象、fastapi/gradio如果提供Web界面等。安装torch时需要注意与你的CUDA版本匹配如果你有NVIDIA显卡并希望加速。可以去PyTorch官网获取对应的安装命令。例如对于CUDA 11.8pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu1183.2 模型下载与配置NagaAgent本身不捆绑模型你需要自行下载并放置到指定目录或在配置文件中指定模型路径。这里以通义千问的Qwen2.5-7B-Instruct模型为例这是一个在中文理解和指令跟随上表现不错的开源模型。# 进入项目目录创建一个存放模型的文件夹 mkdir -p models # 使用Hugging Face的huggingface-cli工具下载需先安装pip install huggingface-hub huggingface-cli download Qwen/Qwen2.5-7B-Instruct --local-dir ./models/Qwen2.5-7B-Instruct下载完成后你需要修改项目的配置文件通常是config.yaml或config.json将模型路径指向你下载的位置。# 假设的 config.yaml 部分内容 model: name: qwen2.5-7b-instruct path: ./models/Qwen2.5-7B-Instruct device: cuda # 或 cpu如果你的显卡内存足够7B模型大概需要14GB显存 load_in_8bit: true # 使用8位量化加载显著减少显存占用但可能轻微影响精度 # trust_remote_code: true # 如果模型需要则开启实操心得对于消费级显卡如RTX 4060 8GB直接加载完整的7B模型FP16精度约14GB几乎不可能。量化Quantization是必选项。除了在配置中设置load_in_8bit还可以考虑使用load_in_4bit需要bitsandbytes库或者直接下载社区已经量化好的GGUF格式模型使用llama.cpp或ollama作为推理后端。NagaAgent如果支持多种后端配置方式会有所不同需要查阅其文档。3.3 启动智能体并初步测试配置好后就可以启动了。启动方式取决于项目设计可能是一个Python脚本也可能是一个Web服务。# 方式一直接运行主脚本常见 python main.py --config ./config.yaml # 方式二如果提供了Web UI如Gradio python webui.py # 方式三如果作为API服务启动如FastAPI uvicorn app:app --host 0.0.0.0 --port 8000启动成功后你应该能在终端看到加载模型的日志以及服务地址例如Running on local URL: http://127.0.0.1:7860。打开浏览器访问该地址或使用curl命令测试API。# 测试API示例 curl -X POST http://127.0.0.1:8000/chat \ -H Content-Type: application/json \ -d {message: 你好你是谁, session_id: test1}如果一切顺利你会收到智能体的自我介绍说明它已经成功运行并具备了基本的对话能力。但这只是开始真正的威力在于工具调用。4. 工具定义与扩展赋予智能体“双手”一个没有工具的智能体就像只有大脑没有手脚的人想法很多却无法行动。NagaAgent的扩展性主要体现在工具集上。4.1 理解工具的定义格式在NagaAgent中一个工具本质上就是一个Python函数但需要用特定的方式“装饰”或注册以便框架能识别并将其描述提供给LLM。通常你需要在一个特定的目录如tools/下创建Python文件。# 示例tools/weather_tool.py import requests import json from typing import Any # 假设框架提供了一个装饰器 register_tool from naga_agent.core import register_tool register_tool(nameget_weather, description根据城市名称查询实时天气信息。) def get_weather(city: str) - str: 获取指定城市的天气情况。 参数: city (str): 城市名称例如“北京”、“上海”。 返回: str: 包含天气信息的字符串如“北京晴25摄氏度东南风2级”。 # 这里是一个模拟实现实际应调用真实的天气API # 注意避免使用需要密钥的API在示例中或妥善处理密钥 weather_map { 北京: 晴25摄氏度东南风2级, 上海: 多云28摄氏度东风3级, 广州: 雷阵雨30摄氏度南风1级, } result weather_map.get(city, f未找到{city}的天气信息。) return f{city}的天气{result} # 更复杂的工具例如执行数学计算 register_tool(namecalculator, description执行基础数学运算加、减、乘、除。) def calculator(expression: str) - str: 计算数学表达式。确保表达式是安全的。 参数: expression (str): 数学表达式如 3 5 * (2 - 1) 返回: str: 计算结果或错误信息。 try: # 警告直接使用eval有安全风险仅用于示例。生产环境应用ast.literal_eval或安全计算库。 # 这里仅为演示工具定义格式。 result eval(expression) return f计算结果{result} except Exception as e: return f计算错误{e}关键点在于清晰的函数名和装饰器register_tool告诉框架这是一个工具。详细的文档字符串Docstring和类型提示LLM规划器主要依靠description参数和函数文档字符串来理解这个工具是干什么的、需要什么参数。描述要简洁准确参数名要清晰。安全的实现工具函数将直接在你的系统上运行。务必进行严格的输入验证和错误处理特别是涉及文件操作、系统命令或网络请求的工具。绝对不要相信来自LLM的未经清洗的参数。4.2 如何让智能体学会使用新工具定义好工具文件后你需要让框架在启动时加载它们。这通常在配置文件或主程序初始化部分完成。# config.yaml 中关于工具的配置 tools: # 指定工具模块所在的目录 directory: ./tools # 或者明确列出要加载的工具模块 modules: - tools.weather_tool - tools.file_ops_tool - tools.web_search_tool # 假设有重启智能体服务后新的工具就应该被加载了。你可以通过询问智能体“你现在有哪些工具”或直接给它一个需要用到新工具的任务来测试。例如你对智能体说“今天北京天气怎么样” 规划器LLM会分析你的请求检索已加载的工具列表发现get_weather工具的描述与请求匹配于是生成计划[调用 get_weather 参数: city“北京”]。执行器随后调用该函数并将结果返回给你。避坑指南工具加载失败是常见问题。首先检查Python路径确保你的工具模块所在目录能被正确导入。其次检查装饰器或注册函数是否与框架版本匹配。最有效的调试方法是查看启动日志或者直接写一个简单的测试脚本手动导入你的工具模块看是否报错。5. 规划与执行流程深度剖析这是NagaAgent最核心的“思考-行动”循环。理解这个过程对于调试和优化智能体行为至关重要。5.1 一次完整的任务处理流程假设用户输入是“我想知道北京和上海明天的天气然后告诉我哪里更适合户外跑步。”接收与上下文整合Agent Core收到用户消息将其与当前会话的记忆Memory合并形成完整的上下文Context。规划阶段Core将上下文发送给Planner。Planner内部会构造一个提示词Prompt给LLM例如你是一个任务规划助手。请将以下用户请求分解为一系列可执行的步骤。你可以使用的工具包括 - get_weather(city): 查询城市天气。 - analyze_suitability(weather1, weather2, activity): 分析天气对某项活动的适宜度。 用户请求我想知道北京和上海明天的天气然后告诉我哪里更适合户外跑步。 历史对话此处是记忆中的历史 请以严格的JSON格式输出步骤列表例如 [{step: 1, action: tool_name, args: {arg1: value1}}, ...]LLM如Qwen2.5会生成类似这样的输出[ {step: 1, action: get_weather, args: {city: 北京}}, {step: 2, action: get_weather, args: {city: 上海}}, {step: 3, action: analyze_suitability, args: {weather1: [STEP1_RESULT], weather2: [STEP2_RESULT], activity: 户外跑步}} ]执行阶段Executor拿到这个计划列表开始逐步执行。步骤1调用get_weather(北京)得到结果R1 “北京晴18-25摄氏度微风”。将R1存入临时上下文。步骤2调用get_weather(上海)得到结果R2 “上海小雨20-28摄氏度东风3级”。将R2存入临时上下文。步骤3调用analyze_suitability(weather1R1, weather2R2, activity户外跑步)。这个工具可能是内置的也可能是你自定义的。它内部逻辑会比较天气条件晴天 vs 小雨温度风力然后返回“分析结果北京天气晴微风比上海小雨更适合户外跑步。”结果整合与响应生成Executor将所有步骤的结果汇总给Agent Core。Core可能会将这些结果再次组织成一段通顺的自然语言回复或者直接返回最终的分析结果。同时Core会将本轮对话的关键信息如查询的城市、得出的结论更新到Memory中供后续对话使用。最终输出用户收到回复“北京明天晴18-25度微风上海明天小雨20-28度东风3级。综合分析北京的天气条件晴天、微风比上海下雨更适合进行户外跑步。”5.2 规划提示词工程的关键点规划器的表现很大程度上取决于你给LLM的提示词。对于能力较弱的本地模型提示词需要更细致结构化输出要求必须明确要求LLM以特定格式如JSON输出否则它可能返回一段无法解析的自然文字。工具描述清晰在提示词中列出工具时描述要简短、功能明确。过于冗长的描述会占用宝贵的上下文窗口。提供少量示例Few-shot在提示词中给出1-2个完整的“用户请求 - 规划步骤”的例子能极大地提升本地模型规划的正确率。步骤粒度控制提示词可以指导LLM将任务分解到合适的粒度。太粗一步完成复杂任务可能失败太细每一步都极其简单则效率低下且可能出错。需要通过实践调整。6. 记忆管理让对话拥有连续性没有记忆的智能体每次对话都是全新的开始。NagaAgent通过记忆模块让智能体具备上下文感知能力。6.1 记忆的常见实现方式对话历史窗口Sliding Window最简单的方式就是保留最近N轮比如10轮的原始对话记录。每次规划或生成回复时都将这些历史记录作为上下文前缀。优点是简单直接缺点是有效记忆长度有限且无关信息也会占用Token。摘要记忆Summarization每经过几轮对话或者当历史记录达到一定长度时用一个LLM可以是同一个也可以是一个更小的摘要模型对之前的对话内容进行总结然后用这个摘要代替原始的长篇历史。新的对话基于摘要和最近的记录进行。这能有效压缩信息但存在信息损失的风险。向量记忆Vector Memory将对话中的关键信息如实体、事实、用户偏好转换成向量Embedding存储到向量数据库如Chroma, FAISS中。当需要回忆时将当前问题也转换成向量在数据库中搜索最相关的记忆片段并将其作为上下文注入。这种方式能实现更长期、更精准的记忆但架构更复杂。NagaAgent可能采用其中一种或混合策略。在配置文件中你可能会看到相关设置memory: type: summary # 或 window, vector window_size: 5 # 当type为window时保留的对话轮数 summary_model: local:./models/summary-model # 当type为summary时指定摘要模型 vector_store_path: ./data/vector_store # 当type为vector时指定向量库路径6.2 记忆对工具调用的影响记忆不仅用于生成连贯的对话也直接影响工具调用。例如用户“北京天气怎么样” - 智能体调用get_weather(北京)。用户“那上海呢” - 如果没有记忆智能体不知道“上海”指代什么。有了记忆它能理解这是上一个关于“天气”查询的延续从而正确调用get_weather(上海)。用户“把我刚才问的两个城市的天气总结一下用表格形式。” - 智能体需要从记忆里提取“北京天气结果”和“上海天气结果”然后调用一个“生成表格”的工具如果你定义了的话。因此一个健壮的记忆系统是智能体表现“智能”的关键。在测试时一定要进行多轮交互检验其记忆和引用能力。7. 性能调优与常见问题排查在本地运行LLM智能体性能是个绕不开的话题。下面是一些实战中的调优经验和常见问题解决方法。7.1 推理速度与资源优化模型量化是首选如前所述使用4位或8位量化能大幅降低显存占用和加载时间对推理速度的影响通常可以接受。GGUF格式的模型配合llama.cpp通常能获得极佳的CPU/GPU混合推理性能。调整推理参数max_new_tokens: 限制生成的最大长度避免无意义的冗长输出。temperature: 降低温度值如0.1可以使输出更确定、更简洁适合工具调用这类需要精确性的任务。top_p (nucleus sampling): 与temperature配合使用通常设为0.9-0.95。使用更快的推理后端如果框架支持可以尝试vLLM支持高速连续批处理、TGIText Generation Inference等优化后的推理服务器而不是原始的transformerspipeline。硬件考量如果CPU推理太慢优先考虑使用GPU。即使显存不够加载完整模型也可以使用量化模型。苹果M系列芯片的Mac可以关注MLX框架的适配。7.2 常见问题与解决方案速查表问题现象可能原因排查步骤与解决方案启动时报ModuleNotFoundErrorPython依赖未安装或版本冲突。1. 检查是否在虚拟环境中。2. 重新安装requirements.txt。3. 根据错误信息手动安装缺失包或调整版本。模型加载失败提示Unable to load model模型路径错误、格式不支持或显存不足。1. 检查配置文件中的model.path是否正确。2. 确认模型文件完整可尝试重新下载。3. 尝试用load_in_8bitTrue或load_in_4bitTrue。4. 换用更小的模型或CPU模式。智能体回复“我不知道怎么做”或胡言乱语规划提示词不佳或模型能力不足。1. 检查规划器的提示词模板确保工具描述清晰、有示例。2. 尝试换一个指令跟随能力更强的模型如Qwen2.5-Instruct系列。3. 简化用户请求测试基础对话是否正常。工具调用错误如Tool xxx not found工具未正确注册或加载。1. 检查工具Python文件是否有语法错误。2. 检查配置文件中的tools设置确保路径或模块名正确。3. 查看启动日志确认工具加载成功的消息。工具执行时报参数类型错误LLM生成的参数与工具函数定义不匹配。1. 在工具函数的装饰器中确保参数类型提示Type Hints清晰如city: str。2. 在规划提示词中强调参数类型。3. 在工具函数内部增加参数类型转换和验证逻辑。多轮对话后智能体“失忆”或上下文混乱记忆模块配置不当或超出限制。1. 检查记忆类型和window_size设置。2. 如果使用摘要记忆摘要模型可能太弱尝试调整摘要频率或换模型。3. 考虑启用向量记忆进行长期关键信息存储。响应速度非常慢模型推理慢、硬件资源不足或网络问题如下载模型。1. 使用top或nvidia-smi查看CPU/GPU/内存占用。2. 尝试量化模型。3. 检查是否在首次运行时下载东西。4. 考虑升级硬件或使用API服务背离本地化初衷但可作为备选。7.3 提升工具调用可靠性的技巧工具描述的精炼与测试用最简单的语言描述工具功能。写好描述后自己扮演LLM看能否仅凭描述准确判断何时调用它。参数约束与示例在工具描述或提示词示例中给出参数示例。例如get_weather(city: str 例如: “北京”, “New York”)。后处理与重试机制在Agent Core中可以对LLM的规划输出进行后处理比如检查JSON格式是否合法工具名是否存在。如果失败可以尝试让规划器重试一次使用修正后的提示词。人工反馈循环可选在开发阶段可以记录下规划失败的案例将其作为反面示例加入到规划提示词中指导LLM避免再犯类似错误。部署和调试NagaAgent这样的本地智能体框架是一个不断与模型能力、提示词设计、系统资源进行博弈的过程。它没有使用云端大模型那种“开箱即用”的强大但换来的是完全的自主控制、数据隐私和零持续成本。对于特定场景下的自动化任务比如基于本地知识库的问答、自动化数据处理、个人工作流助手经过精心调教后的本地智能体完全可以成为一个高效可靠的数字伙伴。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2611210.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…