基于Groq与LangChain构建免费自主AI智能体:从原理到实战

news2026/5/4 4:10:37
1. 项目概述当AI助手学会“自己动手丰衣足食”最近在折腾AI应用开发的朋友估计都绕不开一个核心痛点API调用成本。无论是OpenAI的GPT-4还是Anthropic的Claude每一次对话、每一次推理都在消耗真金白银的Token。对于个人开发者、小团队或者需要高频测试的场景这笔开销不容小觑。更头疼的是当你想构建一个能自主调用工具、联网搜索、处理复杂任务的智能体时单次对话的成本和上下文长度限制常常让项目在原型阶段就举步维艰。就在这个背景下我注意到了GitHub上一个名为“AutoGroq”的项目。初看标题你可能会联想到那个提供高速推理API的服务商Groq以及那个著名的AI智能体框架AutoGPT。没错这个项目的核心思路正是将两者结合旨在创建一个能够利用Groq公司提供的免费、高速推理API来自主运行复杂任务的AI智能体系统。简单来说它试图让AI助手学会“自己动手”利用免费资源来完成目标从而为开发者“丰衣足食”——降低成本门槛。这个想法非常吸引人。Groq以其LPU语言处理单元推理芯片闻名能提供极低的延迟和极高的吞吐量并且其云API目前有相当慷慨的免费额度。而AutoGPT所代表的“自主智能体”范式允许AI根据目标自我规划、执行动作如读写文件、搜索网页、执行代码并迭代优化。将免费的高速算力赋予一个能自主行动的智能体听起来就像是给一个聪明的助手配上了一台永不枯竭的发动机。但理想很丰满现实往往骨感。AutoGroq项目具体是如何实现的它真的能稳定、可靠地运行复杂的多步任务吗作为开发者我们该如何部署、配置并让它为我们所用更重要的是在实际操作中会遇到哪些“坑”又该如何规避为了回答这些问题我决定深入这个项目的代码仓库进行一次从环境搭建到任务实战的完整探索并将过程中的所有细节、心得和踩过的“雷”记录下来。2. 核心架构与设计思路拆解在动手部署之前我们必须先理解AutoGroq究竟是如何工作的。它的设计哲学并非从零造轮子而是站在巨人的肩膀上进行巧妙的集成与适配。2.1 技术栈选型为何是这些组件打开项目的requirements.txt或pyproject.toml文件我们可以看到其核心依赖。一个典型的AutoGroq项目通常会构建在以下几个关键组件之上LangChain / LangGraph这是智能体Agent的“大脑”和“决策框架”。LangChain提供了构建基于大语言模型应用的标准化模块而LangGraph尤其擅长描述有状态的、多步骤的工作流。AutoGroq利用它们来定义智能体的思考循环分析目标、规划步骤、选择工具、执行动作、评估结果、继续或重新规划。这取代了早期AutoGPT中相对粗糙的递归提示工程使得智能体的行为更加可控、可调试。Groq API Client这是项目的“动力核心”。通过官方的groqPython库项目能够以极低的成本调用Groq提供的各类模型例如mixtral-8x7b-32768、llama3-70b-8192等。选择Groq而非其他付费API核心考量就是其免费额度和推理速度。对于需要大量迭代对话的自主智能体来说这两点至关重要。工具集成Tools这是智能体的“手和脚”。一个只会空想的智能体毫无用处。AutoGroq通常会集成一系列工具例如SerpAPI或DuckDuckGoSearch用于联网搜索获取实时信息。FileSystemTool用于读写本地文件管理项目结构。PythonREPLTool在一个安全的沙箱环境中执行Python代码进行数据处理或计算。RequestsToolkit用于发送HTTP请求与外部API交互。 这些工具通过LangChain的标准接口封装智能体在决策时可以从工具列表中选择最合适的一个来调用。记忆与状态管理这是智能体的“短期记忆”。智能体需要记住之前做了什么、得到了什么结果才能进行有效的下一步。AutoGroq通常会利用LangGraph的“状态”概念在单个任务运行期间将对话历史、工具执行结果、中间结论等保存在一个状态对象中并在每一步传递给模型确保上下文连贯。注意这里存在一个关键设计取舍。为了最大化利用Groq的免费额度并追求速度项目通常不会使用昂贵的向量数据库来实现长期记忆。这意味着每次运行都是相对独立的任务完成后记忆不会持久化。这对于完成特定、封闭的任务是高效的但对于需要长期学习和积累知识的场景则不适合。2.2 工作流解析智能体如何一步步思考与行动理解了组件我们再来看看它们是如何协同工作的。一个典型的AutoGroq智能体工作流可以概括为以下循环目标输入与初始化用户提供一个自然语言描述的目标如“研究一下量子计算的最新进展并写一份摘要报告保存为Markdown文件”。系统初始化一个包含目标、空工具输出列表、空步骤历史的状态。规划与工具选择将当前状态包含目标和历史发送给Groq模型。模型被提示Prompt扮演一个“自主智能体”需要分析当前情况决定下一步是应该调用某个工具还是已经可以给出最终答案。如果决定调用工具它需要精确输出工具的名称和输入参数。工具执行系统解析模型的输出找到对应的工具并传入参数执行。例如模型可能输出{action: SearchWeb, action_input: quantum computing breakthrough 2024}系统便会调用搜索工具进行查询。结果观察与状态更新工具执行的结果如搜索到的网页摘要被获取。系统将这个结果作为“观察”更新到状态中。此时状态里包含了原始目标、上一步的“行动”、以及这一步的“观察”。循环判断将更新后的状态再次送给模型。模型评估当前信息是否足以完成任务。如果不足则回到步骤2规划下一步如果足够则输出最终结论如生成报告内容。最终输出与后处理当模型决定任务完成时它会输出最终答案。系统可能还会触发后处理动作比如调用文件写入工具将生成的报告保存到指定路径。这个循环的核心在于“ReAct”Reason Act模式模型在“思考”下一步该做什么Reason和“描述”行动结果Act之间交替。LangGraph将这个循环图形化、结构化使得整个流程更加清晰和易于管理。3. 环境部署与核心配置实战纸上谈兵终觉浅绝知此事要躬行。接下来我将带你一步步搭建一个可运行的AutoGroq环境。这里假设你使用的是Linux/macOS系统或WSL并已安装Python 3.10和Git。3.1 基础环境搭建与依赖安装首先克隆项目仓库。由于“jgravelle/AutoGroq”可能是一个示例或特定实现我们需要理解其通用结构。通常这类项目会提供一个核心的智能体运行脚本。# 1. 克隆项目这里以假设的仓库结构为例 git clone repository_url cd AutoGroq # 2. 创建并激活虚拟环境强烈推荐避免依赖冲突 python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate # 3. 安装依赖 pip install -r requirements.txt # 如果项目没有requirements.txt核心依赖通常包括 # pip install langchain langchain-groq langgraph duckduckgo-search安装过程中最常见的坑是依赖版本冲突。LangChain生态更新频繁不同版本间API可能有变化。如果运行时报错提示某个模块不存在或函数签名错误第一反应是检查项目的requirements.txt或pyproject.toml锁定推荐版本。例如明确指定langchain0.1.0而非langchain。3.2 核心配置API密钥与工具设置环境就绪后最关键的一步是配置。你需要准备几个关键的API密钥或访问令牌。Groq API密钥这是项目的发动机燃油。访问 Groq Cloud 控制台 注册并登录。在API Keys页面点击“Create API Key”生成一个新的密钥。重要妥善保管此密钥它就像你的信用卡密码。不要直接硬编码在脚本里更不要上传到GitHub。搜索API密钥可选但推荐如果智能体需要联网搜索。SerpAPI功能强大结果结构化好但免费额度有限后续需付费。DuckDuckGo Search免费、无需密钥但可能被某些网络环境限制且结果稳定性不如商业API。根据你的需求选择。对于实验和轻度使用DuckDuckGo通常足够。配置方式通常是通过环境变量。我强烈建议使用.env文件来管理并用python-dotenv加载。# 在项目根目录创建 .env 文件 echo GROQ_API_KEYyour_groq_api_key_here .env echo SERPAPI_API_KEYyour_serpapi_key_here .env # 如果使用SerpAPI然后在你的Python主脚本中这样加载和使用import os from dotenv import load_dotenv from langchain_groq import ChatGroq load_dotenv() # 加载 .env 文件中的环境变量 # 初始化Groq模型 llm ChatGroq( groq_api_keyos.getenv(GROQ_API_KEY), model_namemixtral-8x7b-32768, # 推荐模型上下文长免费 temperature0.1, # 对于任务执行低温度更稳定减少随机性 max_tokens32768 # 充分利用模型的长上下文优势 )参数选择心得model_namemixtral-8x7b-32768和llama3-70b-8192是Groq上最受欢迎的两个免费模型。Mixtral是混合专家模型在多任务处理上表现均衡Llama 3 70B则在复杂推理和指令遵循上可能更强。可以根据任务类型切换测试。temperature设置为0.1-0.3之间。自主智能体需要稳定、可预测的输出格式来解析工具调用过高的温度会导致输出混乱无法解析。max_tokens根据模型的最大上下文设置。这决定了单次请求能处理多少历史对话和工具输出。对于长任务设置足够大很重要。3.3 工具链的集成与测试配置好模型后需要实例化智能体可用的工具。这里以集成DuckDuckGo搜索和文件系统工具为例。from langchain_community.tools import DuckDuckGoSearchRun, FileReadTool, FileWriteTool from langchain_experimental.tools import PythonREPLTool # 初始化工具 search DuckDuckGoSearchRun() read_tool FileReadTool() write_tool FileWriteTool() python_repl PythonREPLTool() # 将工具包装成列表供智能体使用 tools [search, read_tool, write_tool, python_repl] # 为每个工具设置清晰的描述这至关重要 # 模型的“思考”依赖于工具的描述来决定调用哪个。 search.description ( A search engine. Useful for when you need to answer questions about current events or find recent information. Input should be a search query string. ) write_tool.description ( Write content to a file. Useful for saving results, reports, or code. Input should be a dictionary with keys file_path and text. )关键技巧工具描述description是智能体能否正确使用工具的生命线。描述必须清晰、无歧义地说明工具的用途、适用场景以及输入格式。我习惯在描述中直接给出输入示例比如Input should be a search query string.。花时间精心编写每个工具的描述能极大提升智能体规划动作的准确性。完成以上步骤后一个基础的、可运行的AutoGroq智能体环境就搭建好了。接下来我们将进入最激动人心的部分设计并运行一个真实任务。4. 任务实战构建一个研究型智能体为了全面测试AutoGroq的能力我设计了一个中等复杂度的任务“调研LangGraph框架的最新特性2024年以来并生成一份包含代码示例的简要技术报告保存为langgraph_report.md。”这个任务综合了信息搜索、信息整合、代码生成和文件操作非常适合检验智能体的多步骤协作能力。4.1 定义智能体与工作流我们将使用LangGraph来构建一个ReAct风格的工作流。以下是核心代码结构from typing import TypedDict, Annotated, List import operator from langgraph.graph import StateGraph, END from langchain_core.messages import HumanMessage, AIMessage, ToolMessage from langchain_core.prompts import ChatPromptTemplate # 1. 定义状态结构 class AgentState(TypedDict): messages: Annotated[List, operator.add] # 消息历史 goal: str # 用户目标 # 2. 创建模型绑定工具的“执行器” llm_with_tools llm.bind_tools(tools) # 3. 定义提示词 system_prompt You are a highly capable autonomous research assistant. Your goal is to accomplish the task given by the user. You have access to the following tools: {tool_descriptions}. Always think step by step. If you need to use a tool, output a JSON object strictly in the following format: {{ tool: tool_name, tool_input: tool_input_parameters }} If you have enough information to provide a final answer to the users goal, output your final answer directly. Your final answer should be comprehensive and well-structured. prompt ChatPromptTemplate.from_messages([ (system, system_prompt), (placeholder, {messages}) # LangGraph会自动填充消息历史 ]) # 4. 定义节点函数 def agent_node(state: AgentState): 智能体决策节点 # 构建提示词 formatted_prompt prompt.invoke({ tool_descriptions: \n.join([f- {t.name}: {t.description} for t in tools]), messages: state[messages], goal: state[goal] }) # 调用模型 response llm_with_tools.invoke(formatted_prompt) # 将模型响应添加到消息历史 return {messages: [response]} def tool_node(state: AgentState): 工具执行节点 last_message state[messages][-1] tool_calls last_message.tool_calls # 获取模型请求调用的工具 if not tool_calls: raise ValueError(No tool calls found in the last message.) tool_messages [] for tool_call in tool_calls: tool_name tool_call[name] tool_input tool_call[args] # 根据名称找到对应的工具对象 selected_tool next((t for t in tools if t.name tool_name), None) if not selected_tool: tool_messages.append(ToolMessage(contentfError: Tool {tool_name} not found., tool_call_idtool_call[id])) continue # 执行工具 try: output selected_tool.invoke(tool_input) tool_messages.append(ToolMessage(contentstr(output), tool_call_idtool_call[id], nametool_name)) except Exception as e: tool_messages.append(ToolMessage(contentfError executing {tool_name}: {str(e)}, tool_call_idtool_call[id])) return {messages: tool_messages} # 5. 构建图 workflow StateGraph(AgentState) # 添加节点 workflow.add_node(agent, agent_node) workflow.add_node(tools, tool_node) # 设置入口点 workflow.set_entry_point(agent) # 定义边智能体之后根据输出决定下一步 def route_after_agent(state: AgentState): last_message state[messages][-1] if last_message.tool_calls: return tools # 如果模型请求调用工具则转向工具节点 else: return END # 如果模型直接给出最终答案则结束 workflow.add_conditional_edges( agent, route_after_agent, {tools: tools, END: END} ) # 工具执行完后总是回到智能体进行下一步思考 workflow.add_edge(tools, agent) # 编译图 app workflow.compile()这段代码构建了一个完整的ReAct循环图。agent_node负责思考并决定行动调用工具或直接回答tool_node负责执行具体的工具调用。两者通过route_after_agent函数连接形成一个闭环。4.2 运行任务与过程观察现在让我们运行这个智能体并观察它的思考过程。# 初始化状态 initial_state AgentState( messages[HumanMessage(content调研LangGraph框架的最新特性2024年以来并生成一份包含代码示例的简要技术报告保存为langgraph_report.md。)], goal调研LangGraph并生成报告 ) # 运行图设置最大迭代次数防止无限循环 max_steps 15 for step, output in enumerate(app.stream(initial_state, stream_modevalues)): print(f\n--- Step {step} ---) last_msg output[messages][-1] if hasattr(last_msg, tool_calls) and last_msg.tool_calls: print(fAgent decided to use tool(s): {[tc[name] for tc in last_msg.tool_calls]}) elif isinstance(last_msg, AIMessage) and not last_msg.tool_calls: print(fAgent Final Answer:\n{last_msg.content[:500]}...) # 打印前500字符 elif isinstance(last_msg, ToolMessage): print(fTool Result (snippet):\n{last_msg.content[:300]}...)在实际运行中我观察到了以下典型的步骤序列步骤0智能体接收目标开始思考。它首先决定使用搜索工具。步骤1调用DuckDuckGoSearchRun搜索关键词为“LangGraph 2024 new features”。步骤2收到搜索结果包含一些博客文章、官方文档更新日志的链接摘要。智能体分析后认为信息不够具体决定进行第二次搜索关键词为“LangGraph state graph tutorial 2024”。步骤3收到新的搜索结果。智能体开始整合信息并意识到需要查看官方仓库获取最准确信息。它尝试在搜索结果中寻找GitHub链接。步骤4智能体判断已有足够信息开始起草报告但它决定先生成一部分内容然后检查是否需要补充。它没有直接调用写文件工具而是先在内部“草拟”内容。步骤5智能体输出了一段关于LangGraph状态管理和并行执行特性的描述并附带了一个简单的代码示例。但它自我评估后认为缺少“2024年”这个时间维度的明确信息。步骤6再次发起搜索关键词更精确“site:github.com/langchain-ai/langgraph releases 2024”。步骤7这次搜索可能直接找到了版本发布页面获得了诸如“支持动态边”、“改进的持久化后端”等具体更新点。步骤8-12智能体开始综合所有信息结构化报告。它分章节撰写引言、核心特性更新分点说明、代码示例使用PythonREPLTool不这里它直接生成了Markdown代码块、总结。步骤13智能体认为报告已完成最终调用FileWriteTool输入{file_path: langgraph_report.md, text: “# LangGraph 2024特性调研报告\n\n...”}。步骤14工具执行成功返回确认信息。智能体收到确认后输出最终完成消息工作流结束。整个过程大约持续了10-15个步骤消耗了约20-30次Groq API调用。生成的langgraph_report.md文件内容结构清晰包含了搜索到的关键特性和可运行的代码片段。实操心得迭代与回溯是常态智能体并非直线前进。它会根据新信息调整策略甚至回溯之前的结论。这恰恰体现了其“自主性”。搜索质量决定上限免费搜索工具的准确性和深度有限。如果任务高度依赖实时、精确信息可能需要集成更强大的搜索工具或者预先由人工提供一些高质量的资料链接作为上下文。设置步数限制至关重要必须设置max_steps。我曾遇到因目标模糊导致智能体陷入“搜索-评估-再搜索”的死循环。一个安全阀是必要的。5. 常见问题、优化策略与避坑指南在实际使用AutoGroq或类似自主智能体框架时你会遇到各种各样的问题。下面是我总结的一些典型问题及其解决方案。5.1 智能体行为异常与调试问题1智能体陷入循环不断重复相同或类似的工具调用。现象例如反复搜索同一个关键词或者写了文件又读读了又写。根因工具描述不清晰模型无法正确理解工具的功能边界。提示词Prompt引导不足没有在系统指令中强调“避免重复行动”或“推进任务进度”。状态信息冗余或缺失消息历史过长导致模型混乱或者关键历史被遗忘。解决方案优化提示词在系统提示中加入明确约束。例如“在规划下一步时请回顾之前的步骤和结果避免重复已经完成的操作或查询相同的信息。你的每一步都应该推动任务向最终目标前进。”精简状态不是所有中间消息都需要完整保留。可以考虑在状态中只保留最近N轮交互或者对历史消息进行摘要虽然这会增加复杂度和成本。增加惩罚机制在route_after_agent逻辑中可以检查最近几次行动是否相同如果是则强制引导智能体采取不同行动或直接结束。问题2智能体输出的工具调用格式错误无法被解析。现象模型返回的是自然语言如“我想用搜索工具查一下XXX”而不是{tool: SearchWeb, tool_input: XXX}。根因提示词格式要求不突出。模型温度Temperature设置过高导致输出随机性太强。使用的模型如较小的模型指令遵循能力较弱。解决方案强化格式示例在提示词中将JSON格式的要求用json代码块包裹并放在显眼位置。甚至可以提供一两个正例。降低Temperature果断将temperature调到0.1或0.2。使用更强的模型切换到llama3-70b-8192或mixtral-8x7b-32768。后处理与重试在代码中捕获解析错误然后将错误信息连同原始请求重新发送给模型要求它纠正格式。这相当于给模型一个“修正”的机会。5.2 性能与成本优化策略1利用Groq的并发与高速优势Groq API的显著特点是延迟极低。虽然自主智能体本身是顺序思考的但可以在以下方面优化批量处理工具输入如果一个步骤中需要调用多个独立的工具例如同时搜索三个不同的关键词可以尝试让模型一次性输出多个工具调用请求然后并行执行它们。这需要对工作流设计进行更复杂的改造。选择合适模型对于逻辑复杂的规划任务使用llama3-70b对于需要长上下文整合信息的任务使用mixtral-8x7b。可以在不同节点使用不同模型但这会引入复杂性。策略2控制上下文长度节省Token智能体的消息历史会越来越长每次请求都会携带全部历史Token消耗增长很快。摘要历史实现一个“摘要节点”在历史达到一定长度后调用模型对之前的对话和结果进行摘要然后用摘要替换掉详细历史。这需要额外的模型调用是一种用少量Token换大量Token的权衡。选择性记忆只将关键的工具执行结果和模型的重要结论放入历史过滤掉中间思考过程。设置最大上下文窗口在初始化模型时虽然可以设置max_tokens但更要确保发送的请求总Token数不要超过模型限制如32768。需要在代码中加入Token计数和截断逻辑。5.3 安全性强化自主智能体拥有文件系统和代码执行权限这非常强大也极其危险。风险1任意文件读写缓解措施沙箱环境使用Docker容器运行整个智能体应用将需要访问的目录以卷Volume形式挂载进去隔离主机文件系统。路径限制在FileReadTool和FileWriteTool的封装层添加路径白名单校验。只允许操作项目目录下的特定子目录如./workspace/。操作确认对于高危操作对于删除文件、执行系统命令等极端危险的操作要么不提供此类工具要么实现一个“人工确认”环节将智能体的请求暂停并等待用户批准。风险2任意代码执行缓解措施使用安全的REPLPythonREPLTool通常在一个子进程中运行可以限制其执行时间、内存和网络访问。代码静态分析在执行前对智能体生成的代码进行简单的静态分析检查是否包含os.system、subprocess、__import__等危险函数或模块并进行拦截或沙箱化。明确禁止在工具描述中强调“禁止执行任何可能危害系统安全、访问网络或文件系统外部区域的代码。”5.4 项目扩展方向基础的AutoGroq是一个起点你可以在此基础上构建更强大的应用多智能体协作使用LangGraph的“多智能体”特性创建专门的研究员、写手、校对员等角色智能体让它们通过消息传递协同完成一个复杂项目。集成长期记忆对接向量数据库如Chroma、Pinecone将每次任务的核心成果向量化存储。当新任务来临时先进行相关性检索让智能体拥有“过往经验”。图形化界面使用Gradio或Streamlit构建一个Web界面让用户可以通过聊天框输入目标并实时查看智能体的思考过程和中间结果。连接真实世界API集成更多的工具如发送邮件、管理日历、操作数据库、控制智能家居等让智能体真正成为个人数字助理。经过这一番从理论到实践的深度探索AutoGroq项目展现出的潜力是令人兴奋的。它将免费的云端算力与自主智能体的范式相结合为开发者、研究者和爱好者提供了一个低成本探索AI自主能力的绝佳沙盒。虽然目前它在复杂逻辑、长期记忆和绝对可靠性上仍无法与人类相比也时常会犯一些令人啼笑皆非的错误但每一次成功的任务完成都让我们离“有用的人工智能助手”更近了一步。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2580467.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…