ChatGPT机器人集成实战:从API调用到生产级对话系统构建

news2026/5/1 10:47:43
1. 项目概述一个为机器人开发者准备的ChatGPT文档库如果你正在开发一个聊天机器人、智能客服或者任何需要接入自然语言对话能力的应用那么你大概率已经听说过ChatGPT的API。它的能力毋庸置疑但官方文档更多是面向通用场景的API调用说明。当你真正要把这个强大的大脑“塞”进你自己的机器人身体里时会遇到一堆官方文档没细说的坑怎么设计对话流程才能让机器人显得更聪明如何处理上下文才能不超Token限制怎么让回复风格贴合我的业务场景这些实战中的“魔鬼细节”恰恰是决定项目成败的关键。lss233/chatgpt-for-bot-docs这个项目就是瞄准了这个痛点。它不是一个简单的API封装库而是一个汇集了实战经验、最佳实践和避坑指南的文档库。你可以把它理解为一本由一线开发者撰写的《ChatGPT机器人集成实战手册》。它的核心价值在于跳出了单纯“如何调用API”的层面深入到“如何用好API来构建一个真正可用的、体验良好的机器人”这一更复杂的工程问题中。对于从零开始的初学者它能帮你快速搭建起认知框架避开初期那些让人抓狂的陷阱对于有一定经验的开发者它里面的模式总结和优化技巧很可能就是你正在寻找的那个“更优解”。2. 核心需求与场景拆解我们到底需要什么在深入技术细节之前我们得先搞清楚把一个像ChatGPT这样的通用大语言模型LLM集成到具体的机器人应用中到底会面临哪些独特的挑战。这决定了这份文档库需要覆盖哪些内容。2.1 从通用API到专用机器人的鸿沟OpenAI的API文档会告诉你如何发送一条消息并获取回复。这很简单。但一个机器人是持续对话的。用户可能先问“今天的天气怎么样”接着又说“那我明天需要带伞吗”。对于人类来说这第二个问题显然和“天气”以及“明天”相关。但API本身是“无状态”的它不知道上一轮对话发生了什么。如何让模型记住上下文这是第一个核心需求。直接的做法是把所有历史对话都塞进下一次的请求里。但这会带来两个问题一是成本Token用量会线性增长二是模型有上下文窗口限制比如GPT-3.5-turbo的16KGPT-4的128K对话长了就会装不下。因此如何高效、智能地管理对话历史进行摘要、裁剪或选择性记忆就成了必须解决的工程问题。2.2 机器人的“个性”与约束一个通用的ChatGPT可以天马行空但你的客服机器人可能只需要回答产品相关问题你的游戏NPC应该有符合角色设定的语言风格。这就需要我们给模型“设规矩”也就是系统提示词System Prompt的设计。如何编写一段清晰、有力、不易被用户带偏的提示词来定义机器人的身份、职责和回答边界例如如何让它坚决不回答与主营业务无关的问题同时又不显得生硬这份文档库需要提供经过验证的提示词模板和设计方法论。2.3 处理复杂交互与工具调用高级的机器人不仅仅是问答它可能需要调用外部能力查询数据库、调用业务接口、进行数学计算、甚至操作硬件。ChatGPT的Function Calling函数调用或Assistant API中的工具Tools特性就是为了解决这个问题。但如何设计工具的描述才能让模型准确理解何时该调用、该传入什么参数如何处理调用失败的情况如何将工具执行结果自然地融入后续对话这涉及到提示工程、错误处理和流程设计的综合能力。2.4 性能、成本与稳定性的平衡机器人可能是7x24小时服务的面对的是海量用户。速率限制Rate Limit、API响应延迟、Token消耗成本以及回答的稳定性避免出现前后矛盾或严重错误都是生产环境必须考虑的问题。文档库需要分享诸如缓存策略、异步处理、降级方案、成本监控以及针对长文本的优化技巧如分块处理等实战经验。3. 文档库核心内容架构解析基于以上需求一个优秀的chatgpt-for-bot-docs应该包含以下几个核心模块。我们可以假设该文档库是以Wiki、GitBook或静态站点形式组织的。3.1 基础集成与对话管理这是入门的第一步但深度决定了上限。快速开始指南会给出最简化的代码示例比如使用Python的openai库如何发送第一个请求。但好的文档会立刻指出这个简单示例的问题没有上下文管理。上下文管理策略详解滑动窗口法只保留最近N轮对话。这是最简单的方法但可能丢失重要的早期信息。关键记忆提取法在对话过程中定期或按需让模型自己对之前的历史生成一个简短的摘要例如“用户正在咨询关于订单12345的退货流程已提供了订单号正在询问退款时间”。然后将这个摘要而非全部历史作为后续对话的上下文。这能极大节省Token。向量数据库检索法将历史对话分块存入向量数据库如Chroma、Pinecone。当新问题到来时先从向量库中检索出最相关的历史片段再将它们作为上下文喂给模型。这种方法适合知识库型机器人能实现“长期记忆”。实操心得对于大多数任务型对话机器人客服、咨询关键记忆提取法是性价比最高的方案。你可以在每5轮对话后或者在用户开启一个新话题时触发一次摘要生成。摘要的提示词可以这样设计“请用一句话总结到目前为止用户的核心诉求和我们已经明确的信息用于维持对话上下文。”3.2 提示词工程实战这是塑造机器人灵魂的核心。文档库会提供大量经过实战检验的提示词模板。系统提示词System Prompt结构剖析 一个强大的系统提示词通常包含以下层次角色与身份“你是一个专业、友好且高效的[某品牌]客服助手。”核心职责与边界“你只回答与[产品A]、[服务B]相关的问题。对于无关问题你应礼貌地表示无法回答并引导用户回到业务主题。”行为规范“你的回答应简洁准确优先使用列表和要点。如果遇到不确定的信息应如实告知‘我需要核实一下’而不要编造答案。”上下文与格式要求“用户可能会提供之前的对话历史。请基于这些历史进行连贯的回应。你的输出必须是纯文本不要包含Markdown格式。”用户提示词User Prompt优化技巧 如何将用户凌乱的自然语言转化为模型更容易理解的指令有时需要在将用户输入转发给API前进行一些预处理或“包装”。例如当用户输入“上一条说的那个东西怎么办”时程序可以自动将其重写为“请基于我们之前关于‘退款政策’的讨论历史上下文已提供回答我当前的问题‘上一条说的那个东西怎么办’”。3.3 工具调用与复杂流程编排这是实现机器人智能进阶的关键。函数/工具描述的最佳实践 模型是否调用工具很大程度上取决于你对工具的描述。描述应清晰、具体包含准确的参数定义和示例。# 一个较差的描述 tools [{ type: function, function: { name: get_weather, description: 获取天气, # 过于模糊 parameters: { type: object, properties: { location: {type: string} } } } }] # 一个较好的描述 tools [{ type: function, function: { name: get_weather, description: 获取指定城市未来24小时的天气预报。当用户询问天气、气温、是否需要带伞、穿衣建议等相关问题时调用此函数。, # 明确了调用时机 parameters: { type: object, properties: { location: { type: string, description: 城市名称必须是明确的行政区划例如‘北京市’、‘上海浦东新区’。不要使用‘我家这边’、‘公司附近’等模糊表述。 } }, required: [location] } } }]多步骤工作流处理 用户可能提出一个需要多个工具协同完成的任务比如“帮我查一下北京飞上海的机票选最便宜的那趟然后看看那天的天气怎么样”。这需要机器人能进行“规划-执行-再规划”的循环。文档库应介绍如何利用Assistant API的run步骤管理或自行设计状态机来跟踪和管理这种复杂流程。3.4 高级特性与性能优化流式响应Streaming对于需要长时间思考的问题让答案一个字一个字地“打”出来能极大提升用户体验避免长时间的空白等待。文档会详细说明如何对接Server-Sent Events (SSE)接口并在前端实时渲染。模型微调Fine-tuning当你有大量高质量的、符合你需求的对话数据时可以考虑对GPT-3.5-Turbo等模型进行微调。这能让模型更深刻地理解你的专业领域术语、对话风格和业务流程从而减少对提示词的依赖提升回答的准确性和一致性。文档会介绍数据准备格式、微调流程和效果评估方法。成本监控与优化Token计数展示如何精确计算每次请求的Token消耗包括提示和完成部分并推荐像tiktoken这样的库。缓存策略对于常见、答案固定的问题如“你们的营业时间是什么”可以将模型的回答缓存起来直接返回避免重复调用API。模型选型指南对比GPT-4、GPT-4 Turbo、GPT-3.5-Turbo在不同任务创意、推理、代码、简单分类上的性能、成本和速度给出选型建议。4. 实战构建一个客服机器人原型让我们跟随一份理想的chatgpt-for-bot-docs的指引快速搭建一个具备基本能力的智能客服原型。我们将使用Python和OpenAI API。4.1 环境准备与初始化首先安装必要的库并设置API密钥。pip install openai tiktoken在你的配置文件或环境变量中设置OPENAI_API_KEY。import openai import tiktoken import json from typing import List, Dict, Any openai.api_key 你的API密钥4.2 实现带摘要的上下文管理我们实现一个ConversationManager类采用“关键记忆提取法”。class ConversationManager: def __init__(self, system_prompt: str, model: str gpt-3.5-turbo): self.system_prompt system_prompt self.model model self.messages [{role: system, content: system_prompt}] self.summary # 当前的对话摘要 self.encoder tiktoken.encoding_for_model(model) def _count_tokens(self, text: str) - int: 计算文本的token数 return len(self.encoder.encode(text)) def _needs_summarization(self, threshold: int 3000) - bool: 检查当前上下文token数是否超过阈值触发摘要 total_tokens sum(self._count_tokens(msg[content]) for msg in self.messages) return total_tokens threshold def _create_summary(self) - str: 调用模型生成当前对话的摘要 summary_prompt f 请用一段简短的话不超过100字总结以下对话的核心内容和已明确的关键信息如订单号、用户问题、已提供的解决方案等。 摘要将用于维持后续对话的上下文请确保重要细节不丢失。 对话历史 {json.dumps(self.messages, ensure_asciiFalse)} 摘要 try: response openai.chat.completions.create( modelself.model, messages[{role: user, content: summary_prompt}], temperature0.2, max_tokens150 ) new_summary response.choices[0].message.content.strip() return new_summary except Exception as e: print(f生成摘要失败: {e}) return self.summary # 失败则返回旧摘要 def add_message(self, role: str, content: str): 添加一条消息到历史 self.messages.append({role: role, content: content}) # 检查是否需要触发摘要 if self._needs_summarization() and role assistant: new_summary self._create_summary() if new_summary: self.summary new_summary # 摘要生成后重置消息历史只保留系统提示和摘要 self.messages [ {role: system, content: self.system_prompt}, {role: system, content: f之前的对话摘要{self.summary}} ] print(f[系统] 已生成并应用新摘要{self.summary}) def get_context_for_api(self) - List[Dict[str, str]]: 获取准备发送给API的上下文消息列表 return self.messages.copy()4.3 设计系统提示词与处理流程现在定义客服机器人的系统提示词并编写主循环。# 系统提示词 SYSTEM_PROMPT 你是“TechGadget”公司的官方在线客服助手“小T”。 你的职责是处理关于产品咨询、订单状态、退货退款和技术支持的问题。 公司主要销售智能手机、笔记本电脑和智能穿戴设备。 请你遵守以下规则 1. 态度始终专业、耐心、友好。 2. 只回答与TechGadget产品及服务相关的问题。对于无关问题请礼貌回应“抱歉我主要处理TechGadget相关的问题暂时无法帮到您。” 3. 如果用户的问题需要查询具体订单或账户信息请引导用户提供订单号或注册邮箱。 4. 对于技术问题先提供常规排查步骤。若无法解决告知用户将转接高级技术专员并请用户留下联系方式。 5. 回答应结构清晰重点突出。涉及步骤时使用数字列表。 6. 如果遇到不确定的信息请说“我需要核实一下这个信息”不要猜测或编造答案。 def chat_with_customer(): manager ConversationManager(SYSTEM_PROMPT, modelgpt-3.5-turbo) print(客服机器人小T已上线输入‘退出’结束对话。) while True: try: user_input input(\n用户: ) if user_input.lower() in [退出, exit, quit]: print(小T: 感谢您的咨询再见) break # 将用户输入添加到管理器 manager.add_message(user, user_input) # 准备API请求 api_messages manager.get_context_for_api() # 调用ChatGPT API response openai.chat.completions.create( modelmanager.model, messagesapi_messages, temperature0.7, # 适当创造性用于客服 max_tokens500, streamFalse ) assistant_reply response.choices[0].message.content # 将助手回复添加到管理器 manager.add_message(assistant, assistant_reply) print(f小T: {assistant_reply}) except openai.RateLimitError: print(小T: 服务繁忙请稍后再试。) break except Exception as e: print(f系统错误: {e}) break if __name__ __main__: chat_with_customer()4.4 添加工具调用能力假设我们需要让机器人能查询订单状态。我们扩展上面的流程。首先定义一个模拟的订单查询函数和工具描述。# 模拟订单数据库 MOCK_ORDERS { ORD123456: {status: 已发货, product: 智能手机X1, tracking: EXPRESS789012}, ORD654321: {status: 处理中, product: 笔记本电脑Y2, tracking: None}, } def get_order_status(order_id: str) - str: 根据订单号查询状态 order MOCK_ORDERS.get(order_id.upper()) if order: status_info f订单 {order_id} 的状态是{order[status]}商品是 {order[product]}。 if order[tracking]: status_info f 物流单号{order[tracking]} return status_info else: return f未找到订单号 {order_id}请核对后重试。 # 工具描述 tools [ { type: function, function: { name: get_order_status, description: 根据用户提供的订单号查询订单的当前状态、商品信息及物流单号。当用户明确提及‘订单状态’、‘查询订单’、‘我的订单到哪里了’并提供疑似订单号的字符串时调用。, parameters: { type: object, properties: { order_id: { type: string, description: 订单号通常由字母‘ORD’开头后接6位数字。 } }, required: [order_id] } } } ]然后修改主对话函数支持工具调用。def chat_with_customer_with_tools(): manager ConversationManager(SYSTEM_PROMPT, modelgpt-3.5-turbo) print(客服机器人小T增强版已上线输入‘退出’结束对话。) while True: try: user_input input(\n用户: ) if user_input.lower() in [退出, exit, quit]: print(小T: 感谢您的咨询再见) break manager.add_message(user, user_input) api_messages manager.get_context_for_api() # 第一步调用模型看它是否需要使用工具 response openai.chat.completions.create( modelmanager.model, messagesapi_messages, toolstools, tool_choiceauto, # 让模型自己决定是否调用工具 temperature0.7, max_tokens500, ) response_message response.choices[0].message tool_calls response_message.tool_calls # 第二步如果有工具调用则执行工具函数 if tool_calls: print(f[系统] 模型决定调用工具: {tool_calls[0].function.name}) available_functions { get_order_status: get_order_status, } # 目前假设只调用一个工具 function_to_call available_functions[tool_calls[0].function.name] function_args json.loads(tool_calls[0].function.arguments) function_response function_to_call(**function_args) # 第三步将工具执行结果作为新的消息发送给模型让它生成面向用户的回答 api_messages.append(response_message) # 添加包含工具调用的助手消息 api_messages.append({ tool_call_id: tool_calls[0].id, role: tool, name: tool_calls[0].function.name, content: function_response, }) second_response openai.chat.completions.create( modelmanager.model, messagesapi_messages, temperature0.7, max_tokens500, ) assistant_reply second_response.choices[0].message.content else: # 没有工具调用直接使用模型的回复 assistant_reply response_message.content # 将最终回复添加到管理器 manager.add_message(assistant, assistant_reply) print(f小T: {assistant_reply}) except Exception as e: print(f出错: {e}) break5. 部署、监控与常见问题排查将原型部署到生产环境还需要考虑更多因素。5.1 部署架构建议对于轻量级应用可以使用云函数如AWS Lambda Vercel Edge Function搭配API Gateway实现无服务器架构自动扩缩容。对于有状态、高并发的应用则需要一个常驻的后端服务如使用FastAPI, Django构建并搭配消息队列来处理请求避免阻塞。关键配置超时与重试设置合理的API调用超时如10-30秒并实现指数退避重试逻辑以应对OpenAI API的瞬时波动。异步处理对于流式响应或可能耗时的复杂推理务必使用异步框架避免阻塞整个请求线程。环境隔离确保开发、测试、生产环境使用不同的API密钥和配置。5.2 监控与日志监控是保障稳定性的眼睛。性能监控记录每次API调用的耗时、Token使用量提示Token和完成Token分开记录、模型名称。业务监控记录对话总数、用户满意度如果有评分机制、工具调用成功率。错误监控密切监控速率限制错误、认证错误、上下文超长错误等。日志记录记录完整的对话历史注意脱敏敏感信息、工具调用参数和结果用于后续分析和模型优化。5.3 常见问题与排查清单在实际运营中你肯定会遇到下面这些问题。这里是一个速查表问题现象可能原因排查步骤与解决方案机器人回答“我不知道”或偏离主题系统提示词不够明确或未被遵守。1. 检查系统提示词是否在每次请求中都被正确包含。2. 强化提示词中的边界描述使用更强烈的措辞如“你必须...”3. 在提示词末尾增加“请严格按照以上指示回答。”对话进行几轮后机器人“忘记”了之前的内容上下文管理策略失效或Token超限被截断。1. 检查ConversationManager的摘要触发逻辑是否正常工作。2. 打印每次请求前的消息列表和Token计数确认历史被正确传递。3. 考虑使用支持更长上下文的模型如GPT-4-128k或优化摘要策略。工具调用从未被触发工具描述不清晰或用户问题未触发调用条件。1. 检查工具描述中的description是否清晰说明了调用时机。2. 在开发阶段可以临时将tool_choice参数设为{type: function, function: {name: xxx}}来强制调用测试功能是否正常。3. 用更明确的用户输入测试例如直接说“查询订单ORD123456的状态”。API响应速度慢模型负载高、网络延迟或请求Token数过多。1. 尝试切换到更快的模型如从GPT-4切换到GPT-3.5-Turbo。2. 优化提示词和上下文减少不必要的Token。3. 实现客户端超时和重试机制。4. 检查是否为流式响应非流式响应在生成完成前不会返回。遇到RateLimitError短时间内请求过多超过API速率限制。1. 实现请求队列和速率限制器在客户端进行限流。2. 根据错误信息中的retry-after头部进行等待后重试。3. 考虑升级API套餐或联系OpenAI调整限制。回答内容不稳定时好时坏temperature参数设置过高导致随机性大。对于需要稳定、准确回答的客服场景将temperature调低如0.2-0.5。对于需要创意的场景可以调高如0.7-0.9。进行A/B测试找到最佳值。处理长文档或复杂问题时效果不佳输入上下文不足或模型能力有限。1. 对于长文档使用“检索增强生成RAG”模式将文档切片存入向量库先检索相关片段再生成答案。2. 对于复杂问题尝试使用思维链Chain-of-Thought提示技巧或升级到推理能力更强的模型如GPT-4。5.4 安全与合规考量这是生产部署的红线。数据隐私确保用户对话数据的安全存储和传输。OpenAI默认会保留API数据一段时间用于模型改进如果涉及敏感数据可以通过其数据使用政策页面申请不用于训练。内容过滤利用OpenAI提供的 moderation API 对用户输入和模型输出进行内容安全过滤防止生成有害、偏见或不当内容。可控性为机器人设置明确的“安全边界”。对于金融、医疗、法律等高风险领域机器人的回答必须经过严格的事实核查或人工复核流程绝不能完全自主。构建一个成熟的、基于ChatGPT的机器人是一个持续迭代的过程。lss233/chatgpt-for-bot-docs这类文档库的价值就在于它汇集了社区在真实项目中踩过的坑和总结出的最佳实践。从设计一个健壮的上下文管理器到打磨一句有效的系统提示词再到优雅地处理工具调用和错误每一步都需要细致的考量。这份文档库应该成为开发者的路线图和备忘录帮助大家把更多的精力放在业务逻辑和创新上而不是反复解决那些共性的基础问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2566544.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…