基于React与OpenAI构建智能聊天应用:架构设计与工程实践

news2026/5/15 3:50:05
1. 项目概述一个开箱即用的React聊天应用框架最近在做一个需要集成智能对话功能的小项目不想从零开始造轮子就在GitHub上翻找现成的解决方案。结果就发现了这个叫openai-react-chat的仓库。第一眼看到这个标题我的直觉是这大概又是一个把OpenAI API简单封装到React组件里的“玩具”项目。但点进去仔细研究后我发现它的定位远比我想象的要清晰和实用。openai-react-chat本质上是一个基于React技术栈深度集成OpenAI聊天模型如GPT-3.5/4的前端应用开发框架或样板工程。它不是一个简单的“Hello World”示例而是一个提供了完整聊天界面、消息管理、流式响应、历史记录等核心功能的、可直接用于生产环境或作为二次开发基底的解决方案。对于前端开发者尤其是那些业务中需要快速接入智能对话能力但又不想在UI交互、状态管理这些繁琐工作上耗费太多时间的团队来说这个项目就像一份精心准备的“半成品”你只需要关心自己的业务逻辑和API密钥剩下的架子它都帮你搭好了。这个项目解决的核心痛点非常明确降低在React应用中集成高质量AI聊天功能的技术门槛和开发周期。它把对话应用中的通用部分——美观的聊天界面、消息的发送与接收、加载状态、错误处理、历史会话的持久化——都做成了可配置、可复用的模块。开发者无需再纠结于如何设计一个好看的聊天气泡如何优雅地实现打字机效果的流式输出或者如何管理复杂的对话状态。你只需要按照它的约定接入你自己的OpenAI API或其他兼容API就能立刻获得一个功能完备的聊天应用。2. 核心架构与设计思路拆解2.1 技术选型为什么是React TypeScript Vite打开项目的package.json技术栈一目了然React作为UI库TypeScript提供类型安全Vite作为构建工具。这是一个非常现代且高效的前端技术组合。React的选择是顺理成章的。其组件化、声明式的特性非常适合构建聊天界面这种动态、状态复杂的UI。聊天应用中的消息列表、输入框、发送按钮、状态提示等都可以被抽象成独立的、可复用的组件。React Hooks如useState,useEffect,useContext也为管理聊天状态、副作用如API调用提供了极大的便利。TypeScript的加入是这个项目显得“专业”的关键。聊天应用涉及的数据结构相对固定但嵌套较深例如消息对象Message可能包含id,role‘user’或‘assistant’,content,timestamp等字段会话Conversation对象包含消息列表、标题等信息。使用TypeScript明确定义这些接口可以在开发阶段就捕获大量的潜在类型错误比如错误地赋值了消息角色或者尝试访问不存在的属性。这对于项目的可维护性和团队协作至关重要尤其是在你以此为基础进行深度定制时。Vite作为构建工具替代了传统的Webpack主要优势在于极快的冷启动和热更新速度。对于需要频繁调整UI样式和交互的聊天应用开发来说这能显著提升开发体验。Vite对现代ES模块的原生支持也使得项目依赖管理和打包更加高效。注意虽然项目默认使用Vite但它的架构通常是构建工具无关的。理论上你可以通过一些配置调整将其迁移到Create React App或Next.js等框架中但这可能需要处理路由、服务端渲染等额外的适配工作。2.2 状态管理如何优雅地处理聊天数据流聊天应用的核心是状态管理。一个典型的聊天状态包括当前会话的消息列表、用户输入框的内容、网络请求的加载状态、可能发生的错误信息等。openai-react-chat通常采用React Context或状态管理库如Zustand、Jotai来集中管理这些状态而不是将状态分散在各个组件内部。为什么选择Context或状态库因为聊天状态是典型的“全局状态”。消息列表需要在聊天面板组件中展示也需要在历史会话侧边栏中预览发送消息的动作需要触发状态更新并发起网络请求。如果使用组件内部状态useState并通过层层Props传递会导致“Prop Drilling”问题使得代码难以维护。而Context或轻量级状态库允许在组件树的任何地方访问和更新状态结构更清晰。一个典型的状态结构可能如下所示以TypeScript接口为例interface ChatState { // 当前活跃的会话 currentConversation: Conversation | null; // 所有会话的历史记录 conversations: Conversation[]; // 网络请求状态 isLoading: boolean; // 错误信息 error: string | null; // 用户输入的临时内容 inputMessage: string; } interface Conversation { id: string; title: string; // 通常由第一条消息生成 messages: Message[]; createdAt: number; } interface Message { id: string; role: user | assistant | system; content: string; timestamp: number; }通过这样的结构设计任何对消息的增删改查或者会话的切换都变成了对中央状态的更新所有关联的UI组件都会自动响应并重新渲染。2.3 UI组件设计构建可复用的聊天界面元素项目的UI层通常会拆分成多个高内聚、低耦合的组件。这是React开发的最佳实践也极大方便了定制化。ChatContainer(聊天容器)这是最顶层的布局组件负责组织整个聊天界面的结构通常包括侧边栏历史会话列表和主内容区当前聊天面板。MessageList(消息列表)负责渲染当前会话中的所有消息。它会遍历currentConversation.messages数组根据每条消息的role决定将其派发给UserMessage组件还是AssistantMessage组件进行渲染。这里的关键是处理消息的自动滚动确保最新消息始终在可视区域内。UserMessage/AssistantMessage(用户/助手消息气泡)这两个是展示层组件决定了消息的视觉样式。通常用户消息靠右背景色鲜明助手消息靠左背景色柔和。它们只关心如何美观地展示content文本。InputArea(输入区域)包含文本输入框和发送按钮。它负责收集用户输入并在用户点击发送或按下回车键时触发发送消息的动作。这个组件需要处理文本输入的状态 (inputMessage) 和发送事件的回调。TypingIndicator(打字指示器)当收到助手的流式响应时这个组件会显示一个动态的“正在输入…”动画极大地提升了交互体验的真实感。Sidebar(侧边栏)展示所有历史会话 (conversations)允许用户创建新会话、切换会话、删除或重命名会话。这种组件化设计的好处是如果你对默认的UI风格不满意你只需要替换对应的展示组件即可而无需改动核心的业务逻辑和状态管理。例如你可以轻松地将默认的消息气泡换成自己设计的样式或者为输入框添加文件上传功能。3. 核心功能实现与关键技术点3.1 与OpenAI API的集成不仅仅是调用createChatCompletion项目的核心当然是调用OpenAI的聊天补全API。但一个健壮的集成远不止一行fetch调用那么简单。基础调用最核心的函数是调用OpenAI的/v1/chat/completions端点。你需要构建一个符合API要求的请求体包括model如gpt-3.5-turbo、messages数组包含历史对话和当前用户消息、temperature控制创造性等参数。然后将当前会话的消息列表经过适当格式化作为messages参数发送过去。const response await fetch(https://api.openai.com/v1/chat/completions, { method: POST, headers: { Content-Type: application/json, Authorization: Bearer ${your_api_key} }, body: JSON.stringify({ model: gpt-3.5-turbo, messages: formattedMessages, // 将本地消息格式转换为API格式 stream: true, // 启用流式响应 temperature: 0.7, }) });流式响应Streaming这是提升用户体验的关键技术。如果不使用流式用户需要等待API完全生成所有回复文本可能耗时数秒才能看到内容体验是“卡顿”的。启用流式后API会以Server-Sent Events (SSE)的形式逐步返回生成的文本片段。前端需要处理这种流式数据。通常使用response.body.getReader()来读取流然后不断解析收到的数据块chunk。每个chunk是一个JSON字符串其中包含部分文本delta.content。你需要将这些片段逐步拼接起来并实时更新到当前助手消息的content中同时触发UI重新渲染从而实现“打字机”效果。// 伪代码示例处理流式响应 const reader response.body.getReader(); const decoder new TextDecoder(); let assistantMessageContent ; while (true) { const { done, value } await reader.read(); if (done) break; const chunk decoder.decode(value); const lines chunk.split(\n).filter(line line.trim() ! ); for (const line of lines) { if (line.startsWith(data: )) { const data line.slice(6); if (data [DONE]) { // 流结束 return; } try { const parsed JSON.parse(data); const textDelta parsed.choices[0]?.delta?.content || ; assistantMessageContent textDelta; // 关键实时更新状态触发UI更新 updateMessageContent(assistantMessageId, assistantMessageContent); } catch (e) { console.error(解析流数据失败:, e); } } } }实操心得处理OpenAI的流式响应时一定要注意数据块的拼接和解析。有时一个完整的JSON可能会被拆分成多个chunk发送简单的按行分割可能会出错。更健壮的做法是使用一个缓冲区来累积数据直到遇到完整的换行符或可解析的JSON对象。此外网络不稳定的情况下流可能会中断需要做好错误处理和重试机制例如提示用户“网络中断是否重试”。3.2 消息与会话的持久化用户肯定不希望刷新页面后聊天记录就全部消失。因此将消息和会话数据持久化到本地是必备功能。通常使用浏览器的localStorage或IndexedDB。localStorage简单易用适合存储量不大的数据通常有5MB限制。你可以将整个conversations数组序列化成JSON字符串进行存储。在应用初始化时useEffect中再从localStorage读取并恢复状态。// 保存到localStorage const saveConversations (conversations: Conversation[]) { localStorage.setItem(chat_conversations, JSON.stringify(conversations)); }; // 从localStorage加载 const loadConversations (): Conversation[] { const data localStorage.getItem(chat_conversations); return data ? JSON.parse(data) : []; };IndexedDB如果预期聊天记录非常多例如一个支持多用户、长期使用的工具localStorage的容量和同步读写特性可能成为瓶颈。IndexedDB提供了异步的、更大容量的存储方案但API相对复杂。你可以使用idb或Dexie.js这类库来简化操作。持久化策略为了性能考虑不必每次状态变更都立即持久化。可以采用防抖debounce策略例如在会话新增消息或标题更新后延迟500毫秒再执行保存操作避免频繁的磁盘I/O影响主线程响应。3.3 上下文管理与Token限制OpenAI的API对单次请求的Token总数包括输入和输出有限制。这意味着你不能无限制地将整个聊天历史都发送给API。openai-react-chat需要实现一个“上下文窗口”管理策略。常见的策略是滑动窗口只保留最近N条消息或者确保所有消息的Token总和不超过模型上限如4096个Token。这需要在发送请求前对当前会话的messages数组进行裁剪。更高级的策略可能包括智能摘要当历史记录过长时尝试用一条系统消息来总结之前的对话重点然后将摘要和最近几条消息一起发送。关键信息保留识别并始终保留用户可能指定的关键信息如“我的名字是张三”即使它不在最近的N条消息中。实现这个功能需要估算文本的Token数量。虽然OpenAI提供了tiktoken库进行精确计算但在前端环境使用可能较复杂。一个常见的折中方案是使用近似估算1个Token约等于0.75个英文单词或2-3个中文字符。项目可能会内置一个简单的估算函数在添加消息到发送队列时进行累加和检查。4. 项目配置与自定义开发指南4.1 环境配置与首次运行拿到项目代码后第一步是配置环境。这通常包括以下几个步骤克隆项目git clone https://github.com/elebitzero/openai-react-chat.git安装依赖进入项目目录运行npm install或yarn。配置环境变量在项目根目录创建.env.local文件。这里最关键的是填入你的OpenAI API密钥。VITE_OPENAI_API_KEYsk-your-actual-api-key-here VITE_OPENAI_API_BASEhttps://api.openai.com/v1 # 可选可配置为代理地址 VITE_DEFAULT_MODELgpt-3.5-turbo重要安全提示绝对不要将.env.local文件提交到Git仓库确保它已在.gitignore列表中。API密钥泄露可能导致严重的财务损失。启动开发服务器运行npm run dev。Vite会启动一个本地开发服务器通常在http://localhost:5173。打开浏览器即可看到聊天界面。4.2 核心配置项解析项目通常会通过一个配置文件如src/config.ts或环境变量来暴露可定制选项。理解这些选项是进行二次开发的基础。配置项说明典型值API 配置apiKeyOpenAI API密钥从环境变量读取apiBaseUrlAPI基础地址https://api.openai.com/v1model默认使用的模型gpt-3.5-turbo,gpt-4聊天参数temperature温度参数控制随机性0.7(0-2之间)maxTokens单次回复的最大Token数2048stream是否启用流式输出trueUI/UX 配置defaultLocale默认语言zh-CNautoScroll是否自动滚动到最新消息truesaveInterval自动保存到本地存储的间隔(ms)5000你可以根据需求修改这些配置。例如如果你主要面向中文用户可以将temperature调低一些如0.5以获得更确定性的回答如果你使用Azure OpenAI服务则需要修改apiBaseUrl。4.3 如何进行深度定制openai-react-chat作为一个样板其价值在于你可以基于它快速构建属于自己的特色应用。以下是几个常见的定制方向1. 更换UI主题/样式项目通常使用CSS模块、Tailwind CSS或Styled-Components。要修改样式只需找到对应的组件样式文件。例如要修改消息气泡可以编辑MessageBubble.module.css或相关的JSX中的className。如果你想完全换一套UI库如Ant Design, MUI工作量会大一些需要替换掉大部分展示组件但核心的状态逻辑和API调用层可以复用。2. 接入其他AI模型/服务项目默认与OpenAI API耦合但架构上应该将“AI服务调用”这一层抽象出来。你可以创建一个AIService接口或抽象类然后为不同的提供商如OpenAI、Azure OpenAI、Anthropic Claude甚至本地部署的Ollama实现具体的服务类。// 抽象层 interface IAIService { sendMessage(messages: Message[], options: SendOptions): PromiseStreamingResponse; } // OpenAI实现 class OpenAIService implements IAIService { ... } // Claude实现 class ClaudeService implements IAIService { ... } // 在应用中通过配置决定使用哪个服务 const aiService config.provider openai ? new OpenAIService() : new ClaudeService();3. 添加新功能文件上传与处理在InputArea组件旁添加一个文件上传按钮。上传后可以将文件内容如图片OCR后的文本、PDF解析的文本作为上下文的一部分发送给AI。语音输入/输出集成Web Speech API实现语音转文字输入和文字转语音播放回复。插件系统设计一个插件接口允许动态加载能执行特定任务如计算、搜索网页、查询数据库的插件。当用户输入触发插件时AI可以调用插件并整合结果到回复中。5. 部署实践与性能优化5.1 前端构建与部署开发完成后你需要将应用部署到线上环境供他人访问。构建生产版本运行npm run build。Vite会将你的代码打包、压缩、优化并输出到dist目录。这个目录包含了所有静态资源HTML, JS, CSS, 图片。选择托管平台由于是纯静态应用你可以将其部署到任何静态网站托管服务上例如Vercel对前端项目支持极好关联Git仓库后可以自动部署。Netlify类似Vercel提供自动化部署、CDN等功能。GitHub Pages免费适合开源项目演示。云存储服务如阿里云OSS、腾讯云COS配置为静态网站托管即可。关键部署步骤将dist目录下的所有文件上传到托管平台的根目录。配置环境变量在托管平台的控制面板中设置生产环境所需的变量如VITE_OPENAI_API_KEY。注意前端环境变量在构建时会被硬编码因此绝对不能将真实的API密钥放在前端环境变量中前端环境变量是公开的。正确的做法是方案A推荐构建一个轻量级的后端代理服务器如使用Node.js Express。前端将请求发送到你的代理由代理服务器持有API密钥转发给OpenAI。这样密钥就保存在安全的服务器端。方案B如果只是个人使用或演示且能接受风险可以使用临时密钥或严格限制用量和权限的密钥并做好监控。5.2 性能优化要点一个流畅的聊天应用离不开性能优化。代码分割Code Splitting利用Vite或Webpack的动态导入功能将非核心的代码如设置页面、关于页面拆分成独立的chunk实现按需加载减少首屏加载时间。// 动态导入组件 const SettingsPage React.lazy(() import(./pages/SettingsPage));虚拟列表Virtual List如果单个会话的历史消息可能非常多比如上千条渲染所有消息DOM节点会严重消耗性能。虚拟列表技术只渲染可视区域内的消息大幅提升滚动性能。可以考虑使用react-window或react-virtualized库。API响应优化设置合理的max_tokens避免请求过长的回复既节省Token费用也减少用户等待时间。实现请求取消当用户快速连续发送消息或中途取消时应能取消正在进行的API请求避免不必要的计算和网络流量。客户端缓存对于某些通用、重复性的问题可以考虑在客户端进行简单的缓存避免重复请求。状态更新优化确保状态更新是精确的。例如在流式响应更新单条消息内容时使用函数式更新或确保只更新该消息对应的状态片段避免引发整个消息列表的不必要重渲染。合理使用React.memo包裹纯展示型组件如MessageBubble。6. 常见问题排查与实战技巧在实际使用和开发过程中你肯定会遇到各种问题。这里记录了一些典型场景和解决方法。6.1 网络与API相关问题问题1CORS错误跨域问题现象浏览器控制台报错Access-Control-Allow-Origin。原因前端应用运行在localhost:5173但直接请求api.openai.com违反了浏览器的同源策略。解决方案开发环境在Vite配置中设置代理。在vite.config.ts中添加export default defineConfig({ server: { proxy: { /api/openai: { target: https://api.openai.com, changeOrigin: true, rewrite: (path) path.replace(/^\/api\/openai/, ) } } } })然后前端将请求发往/api/openai/v1/chat/completionsVite开发服务器会帮你代理转发。生产环境必须使用上述提到的后端代理方案绝对不要在前端直接暴露API密钥和跨域请求。问题2API返回429速率限制或401认证失败429错误OpenAI对免费账号和不同付费套餐有每分钟/每天的请求次数限制。需要实现请求队列和退避重试机制。例如在请求失败后等待指数增长的时间如1秒2秒4秒…再重试。401错误API密钥无效或过期。检查密钥是否正确是否有空格以及是否在OpenAI账户中已启用。问题3流式响应中断或不完整现象回复到一半突然停止或者出现乱码。排查检查网络连接是否稳定。检查处理SSE流的代码逻辑确保能正确处理数据块分割和JSON解析异常。在开发者工具的Network面板查看响应流确认是否是服务器端中断。6.2 功能与交互问题问题4发送消息后输入框未清空或发送按钮未禁用原因状态更新逻辑有误。发送消息后应重置inputMessage状态为空字符串并将isLoading设为true以禁用发送按钮。检查点确认发送消息的事件处理函数中在调用API前正确更新了相关状态。问题5聊天记录在刷新后丢失原因持久化逻辑未生效或出错。排查检查localStorage的读写代码是否在正确的生命周期如useEffect中执行。打开浏览器开发者工具的Application - Storage - LocalStorage查看对应的键值是否存在且数据格式正确。确保保存操作在状态变更后触发例如使用useEffect监听conversations变化。问题6自动滚动到最新消息不工作原因消息列表容器或最新消息元素的DOM引用获取或滚动逻辑有误。解决方案使用React的useRef钩子创建一个对消息列表容器末尾一个“哨兵”元素的引用。每当消息列表更新时在useEffect中执行scrollIntoView操作。const messagesEndRef useRefHTMLDivElement(null); useEffect(() { messagesEndRef.current?.scrollIntoView({ behavior: smooth }); }, [messages]); // 依赖项为消息数组6.3 安全与最佳实践提醒API密钥安全是第一要务再次强调切勿在前端代码或公开仓库中硬编码API密钥。务必使用后端代理。用户输入净化虽然OpenAI API本身有一定处理能力但作为良好实践在前端发送用户输入前可以进行基本的清理防止意外的脚本或特殊字符导致问题。设置用量监控和告警在OpenAI控制台设置使用量限制和预算告警防止因程序漏洞或恶意使用导致意外高额账单。错误处理要友好网络错误、API错误、Token超限等异常情况都应该在UI上给用户清晰、友好的提示而不是仅仅在控制台打印错误。这个项目就像一个功能齐全的“毛坯房”水电管线状态管理、API通信已经铺好基础装修UI组件也已完成。你的任务就是根据自家需求进行软装和格局改造。无论是想打造一个知识库问答机器人、一个创意写作助手还是一个集成到内部系统的智能客服模块openai-react-chat都为你提供了一个坚实且高效的起点。剩下的就是发挥你的创意和业务理解了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2614040.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…