开源ChatGPT WebUI:自托管部署、核心功能与安全实践全解析

news2026/5/7 20:25:49
1. 项目概述一个开源ChatGPT WebUI的诞生与价值最近在GitHub上看到一个名为“HemulGM/ChatGPT”的项目点进去一看发现这是一个基于Web的ChatGPT用户界面。作为一个长期关注AI应用落地的开发者我立刻来了兴趣。这不仅仅是一个简单的“套壳”项目它背后反映了一个非常普遍且强烈的需求如何在一个更可控、更灵活、更符合个人或团队工作流的环境中与以ChatGPT为代表的大型语言模型进行交互。我们很多人都有过这样的体验官方的ChatGPT网页版虽然功能强大但有时会受到网络环境、使用策略、对话历史管理、上下文长度乃至隐私顾虑的限制。对于开发者、研究人员或者重度用户来说一个能够自定义、可扩展、能集成到本地或私有环境中的Web界面其价值不言而喻。“HemulGM/ChatGPT”这个项目正是瞄准了这一痛点。它本质上是一个开源的自托管ChatGPT Web客户端允许你使用自己的OpenAI API密钥搭建一个属于你自己的、功能增强的聊天界面。这个项目适合谁呢我认为主要有三类人第一类是希望拥有更稳定、不受官方服务区域限制访问体验的用户第二类是开发者他们需要将LLM能力集成到自己的应用或研究流程中一个可定制的本地Web界面是绝佳的测试和原型开发平台第三类是对数据隐私有更高要求的个人或小团队自托管意味着对话数据流经的节点完全可控。接下来我将深度拆解这个项目的设计思路、核心功能、部署实操以及那些官方文档里不会写的“坑”和技巧。2. 项目核心架构与设计哲学解析2.1 为什么选择自托管WebUI这条路在深入代码之前我们首先要理解项目创建者选择这条技术路径的底层逻辑。直接使用OpenAI提供的API是最直接的方式但为什么还需要一个中间层的WebUI呢核心原因在于“控制权”和“体验增强”。官方ChatGPT界面是一个面向海量用户的通用产品它必须权衡功能复杂性、运营成本和策略合规。而自托管WebUI可以将控制权交还给用户。例如你可以自由决定上下文窗口的管理策略是全部保留、滑动窗口还是智能摘要可以定制符合你个人习惯的提示词模板库可以集成额外的工具如代码高亮、Markdown渲染增强、对话导出为多种格式。更重要的是它解耦了前端交互与后端服务。你的WebUI可以部署在家里的NAS上、公司的内网服务器上或者任何一个你信任的VPS上然后通过标准的API密钥与OpenAI、Azure OpenAI乃至其他兼容API的模型服务如Groq、Together AI进行通信。这种架构提供了巨大的灵活性。“HemulGM/ChatGPT”项目通常采用典型的前后端分离架构。前端使用现代Web框架如React、Vue.js构建负责渲染聊天界面、管理对话状态、处理用户输入。后端则是一个轻量级的服务器可能是Node.js ExpressPython FastAPI等它扮演着“代理”或“网关”的角色。后端接收前端请求附加上用户的API密钥转发给OpenAI的API然后将响应流式或非流式地传回前端。这个后端层是关键它可以在转发请求前后加入很多自定义逻辑比如请求日志记录用于分析和计费、速率限制、提示词预处理、响应内容过滤或格式化等。2.2 技术栈选型背后的考量虽然我无法看到“HemulGM/ChatGPT”项目实时的具体技术栈因为GitHub项目可能更新但这类项目的主流选择通常围绕几个核心目标开发效率、性能、可维护性和易于部署。前端技术栈React或Vue.js是绝对的主流。它们拥有丰富的生态系统能轻松实现复杂的交互状态管理例如对话列表、消息流式渲染、设置面板等。对于需要良好实时体验的聊天应用流式响应Server-Sent Events或WebSocket的支持至关重要。现代前端框架配合良好的状态管理库如Zustand, Pinia可以优雅地处理流式文本的逐字打印效果。UI组件库方面可能会选择Ant Design、Element Plus或Tailwind CSS这类工具来快速构建美观且一致的界面。后端技术栈的选择更多样。Node.js (Express/Koa) 是常见选择因为它与JavaScript/TypeScript的全栈体验统一适合快速原型开发。Python (FastAPI/Flask) 同样流行尤其是在AI/ML社区因为它与数据科学工具链结合更紧密方便后续集成本地模型或其他AI服务。后端的核心职责是安全地管理API密钥绝不能泄露给前端、处理与OpenAI API的通信通常使用官方SDK如openaiNode.js库或Python库、以及实现可能的扩展功能。部署与运维方面项目通常会提供Docker镜像和docker-compose配置文件这是一键部署的黄金标准。它解决了环境依赖的难题让用户无论在Linux、macOS还是Windows上都能通过几条命令快速拉起服务。此外清晰的环境变量配置用于设置API密钥、服务端口、代理地址等是项目是否易于使用的关键指标。注意在技术选型上没有绝对的“最佳”只有“最适合”。一个用Python FastAPI写的后端可能更受数据科学家青睐而一个全栈JavaScriptNext.js的项目可能对Web开发者更友好。“HemulGM/ChatGPT”项目的具体选择反映了作者对特定技术生态的熟悉度和对项目受众的预期。3. 核心功能模块深度拆解一个优秀的自托管ChatGPT WebUI绝不会只是官方界面的简单复刻。它会在一些关键体验上进行增强和突破。下面我们来拆解这类项目通常具备的核心功能模块。3.1 对话管理与上下文工程这是聊天应用的核心。基础功能包括创建新对话、为对话命名、删除对话以及在不同对话间切换。但进阶功能才是体现价值的地方对话导出/导入支持将单次或全部对话导出为JSON、Markdown、PDF或纯文本格式。这对于知识沉淀、内容创作或合规审计非常重要。上下文长度管理GPT模型有token限制。优秀的WebUI会提供智能的上下文管理策略。例如当对话历史超过某个阈值时自动从最旧的消息开始丢弃或者更高级地尝试对早期历史进行摘要压缩再放入上下文以保留更长的“记忆”。这需要后端实现复杂的token计数和文本处理逻辑。对话分支类似于Git分支允许你在对话的某个节点创建分支尝试不同的提问方向而不会破坏原始对话流。这是进行探索性对话或对比不同提示词效果的强大工具。3.2 模型与参数调优界面官方网页版对模型选择和参数调整的入口通常较深。自托管UI则可以将这些高级控制直接暴露出来。多模型支持不仅仅支持gpt-3.5-turbo和gpt-4还可以支持gpt-4-turbo-preview、gpt-4o以及通过Azure OpenAI服务访问的模型。下拉菜单直接切换方便对比不同模型的性能和成本。参数可视化调节提供滑块或输入框直观地调节temperature创造性、top_p核采样、presence_penalty话题新鲜度、frequency_penalty用词重复度等关键参数。旁边最好有简明的解释说明每个参数对输出结果的影响。系统提示词System Prompt编辑器这是一个至关重要的功能。系统提示词用于设定AI助手的角色和行为准则。一个好的UI会提供一个可编辑、可保存、可复用的系统提示词模板库。比如你可以保存一个“代码评审专家”提示词、一个“创意写作伙伴”提示词需要时一键切换。3.3 增强的输入与输出体验提升交互效率是这类工具的另一个重点。Markdown与代码高亮不仅要在输出时完美渲染Markdown包括表格、数学公式等在输入框中也应提供基本的Markdown语法支持如粗体、斜体、代码块。对于代码块必须要有语法高亮和可选的“复制代码”按钮。流式响应与中断支持像官方一样逐字输出流式并且提供“停止生成”按钮这在生成长文本时能节省token和時間。附件/上下文文件上传一些高级的WebUI支持上传文本文件、PDF、Word文档甚至图片结合视觉模型并将文件内容作为上下文提供给模型进行分析、总结或问答。这通常需要后端进行文件解析和文本提取。快捷指令与提示词库在输入框旁提供常用操作如“重写”、“总结”、“翻译”的快捷按钮或内置一个强大的提示词库用户可以选择专业领域的提示词模板如“写一封求职信”、“生成SQL查询”大幅提升效率。3.4 管理与运维功能对于个人或团队使用一些管理功能必不可少。API用量与成本统计仪表板展示当前会话、今日、本月的token消耗情况并根据OpenAI的定价模型估算费用。这对于控制预算至关重要。多用户与权限控制如果是团队版支持创建多个用户分配不同的API密钥额度或模型使用权限。日志与审计记录所有的请求和响应可脱敏便于排查问题和分析使用模式。网络与代理配置提供配置HTTP代理的选项这对于在某些网络环境下访问OpenAI API是刚需。4. 从零开始部署与配置实战假设我们现在要部署“HemulGM/ChatGPT”或一个类似的项目。以下是基于常见开源项目实践的通用部署指南涵盖了从准备到上线的全流程。4.1 环境准备与前置条件在动手之前你需要准备好以下几样东西一台服务器可以是本地电脑用于测试、家里的树莓派或NAS、云服务商如AWS Lightsail, DigitalOcean, 腾讯云轻量应用服务器的VPS。建议至少有1核CPU、1GB内存和10GB硬盘空间。操作系统推荐Ubuntu 22.04 LTS或更新版本因其社区支持和软件包丰富。一个OpenAI API密钥前往OpenAI平台注册并创建API密钥。妥善保存它就像你的信用卡密码。基础的命令行操作知识需要会使用SSH连接服务器执行基本的Linux命令cd,ls,curl,nano/vim。安装Docker和Docker Compose这是最推荐的部署方式能避免环境依赖的噩梦。在Ubuntu上安装Docker和Compose的命令序列# 更新软件包索引 sudo apt-get update # 安装依赖包允许apt通过HTTPS使用仓库 sudo apt-get install -y ca-certificates curl gnupg lsb-release # 添加Docker官方GPG密钥 sudo mkdir -p /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg # 设置Docker稳定版仓库 echo \ deb [arch$(dpkg --print-architecture) signed-by/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \ $(lsb_release -cs) stable | sudo tee /etc/apt/sources.list.d/docker.list /dev/null # 再次更新并安装Docker引擎 sudo apt-get update sudo apt-get install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin # 验证安装 sudo docker run hello-world # 可选将当前用户加入docker组避免每次都用sudo sudo usermod -aG docker $USER # 执行此命令后需要退出SSH重新登录生效4.2 获取与配置项目代码通常开源项目会提供通过Git克隆代码的部署方式。# 1. 克隆项目仓库这里以假设的仓库为例实际请替换为HemulGM/ChatGPT的仓库URL git clone https://github.com/HemulGM/ChatGPT.git cd ChatGPT # 2. 查看项目结构通常会有docker-compose.yml和.env.example文件 ls -la # 3. 复制环境变量示例文件并编辑它 cp .env.example .env nano .env # 或使用vim在打开的.env文件中你需要配置最关键的几个参数# OpenAI API配置 OPENAI_API_KEYsk-your-actual-api-key-here # 你可以指定使用的模型例如 gpt-4o, gpt-4-turbo-preview DEFAULT_MODELgpt-3.5-turbo # 应用访问配置 APP_PORT3000 # Web服务对外暴露的端口 APP_HOST0.0.0.0 # 监听所有网络接口 # 可选网络代理配置如果你的服务器无法直接访问OpenAI # HTTP_PROXYhttp://your-proxy-server:port # HTTPS_PROXYhttp://your-proxy-server:port重要提示.env文件包含你的API密钥务必将其加入.gitignore并且不要通过不安全的方式分享。在生产环境中可以考虑使用Docker secrets或专门的密钥管理服务。4.3 使用Docker Compose一键启动配置好环境变量后启动服务通常只需要一条命令。# 在项目根目录含有docker-compose.yml的目录执行 docker-compose up -d-d参数代表在后台运行。执行后Docker会拉取所需的镜像前端、后端、数据库等并按照docker-compose.yml中定义的网络、卷和依赖关系启动所有容器。你可以使用以下命令查看容器运行状态和日志# 查看容器状态 docker-compose ps # 查看实时日志特别是启动时排查问题 docker-compose logs -f [服务名] # 例如 docker-compose logs -f backend # 停止服务 docker-compose down # 停止并删除所有相关的卷谨慎操作会清除数据 docker-compose down -v4.4 访问与初步验证假设你在服务器上部署并且服务器IP是192.168.1.100APP_PORT设置为3000。在浏览器中访问http://192.168.1.100:3000。如果一切顺利你应该能看到登录界面或直接进入聊天主界面。首次使用可能需要你输入一个访问密码如果项目配置了密码保护或者直接开始使用。进行一个简单的测试对话例如输入“Hello, who are you?”观察是否能正常收到流式回复。同时打开浏览器的开发者工具F12切换到“网络”(Network)标签页查看API请求是否成功响应状态码是否为200。5. 高级配置与个性化定制基础部署完成后你可以根据需求进行深度定制让这个WebUI真正成为你的专属工具。5.1 配置反向代理与HTTPS生产环境必备直接通过IP和端口访问既不安全也不方便。我们需要配置Nginx这样的反向代理并为其加上HTTPS加密。首先在服务器上安装Nginx和Certbot用于从Let‘s Encrypt获取免费SSL证书sudo apt install -y nginx certbot python3-certbot-nginx然后为你的域名假设是chat.yourdomain.com创建一个Nginx配置文件sudo nano /etc/nginx/sites-available/chatgpt-webui将以下配置粘贴进去记得替换chat.yourdomain.com和3000端口server { listen 80; server_name chat.yourdomain.com; # 将HTTP请求重定向到HTTPS return 301 https://$server_name$request_uri; } server { listen 443 ssl http2; server_name chat.yourdomain.com; # SSL证书路径Certbot会自动配置 ssl_certificate /etc/letsencrypt/live/chat.yourdomain.com/fullchain.pem; ssl_certificate_key /etc/letsencrypt/live/chat.yourdomain.com/privkey.pem; # 安全增强的SSL配置可选但推荐 ssl_protocols TLSv1.2 TLSv1.3; ssl_ciphers ECDHE-RSA-AES256-GCM-SHA512:DHE-RSA-AES256-GCM-SHA512; ssl_prefer_server_ciphers off; # 反向代理到本地的WebUI服务 location / { proxy_pass http://localhost:3000; # 这里对应docker-compose中APP_PORT映射的宿主机端口 proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection upgrade; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; proxy_cache_bypass $http_upgrade; # 以下两行对于流式响应(Server-Sent Events)很重要 proxy_buffering off; proxy_set_header Accept-Encoding ; } # 静态文件缓存如果项目有独立的前端静态资源 location /assets/ { expires 1y; add_header Cache-Control public, immutable; } }启用该配置并测试Nginx语法sudo ln -s /etc/nginx/sites-available/chatgpt-webui /etc/nginx/sites-enabled/ sudo nginx -t # 测试配置应显示syntax is ok sudo systemctl reload nginx最后使用Certbot获取SSL证书sudo certbot --nginx -d chat.yourdomain.com按照提示操作Certbot会自动修改你的Nginx配置并启用HTTPS。现在你就可以通过https://chat.yourdomain.com安全地访问你的ChatGPT WebUI了。5.2 集成其他模型与API后端项目的强大之处在于其可扩展性。除了OpenAI你还可以配置它连接到其他提供兼容OpenAI API格式的服务。1. 连接Azure OpenAI服务如果你的组织使用Azure配置起来很简单。在.env文件中你需要修改或添加以下变量OPENAI_API_TYPEazure OPENAI_API_BASEhttps://your-resource-name.openai.azure.com/ OPENAI_API_KEYyour-azure-openai-api-key OPENAI_API_VERSION2024-02-15-preview # 使用最新的API版本 DEPLOYMENT_NAMEyour-deployment-name # 你在Azure门户中创建的部署名称注意这里的DEPLOYMENT_NAME对应你在Azure上部署的模型名称而DEFAULT_MODEL变量在Azure环境下可能不再需要或者需要与部署名保持一致具体取决于项目代码的实现。2. 连接本地模型或第三方API一些项目支持通过修改API基础URL来指向任何兼容OpenAI API格式的端点。例如如果你在本地使用text-generation-webuioobabooga或LM Studio开启了兼容API或者使用Together AI、Groq等服务你可以这样配置OPENAI_API_BASEhttps://api.together.xyz/v1 # 以Together AI为例 OPENAI_API_KEYyour-together-api-key DEFAULT_MODELtogethercomputer/llama-2-70b-chat这极大地扩展了应用范围让你可以自由切换不同供应商、不同性能档次的模型。5.3 修改前端界面与主题如果你对默认的UI样式不满意可以进行前端定制。这需要你具备一定的前端开发知识。找到前端代码目录通常在/frontend或/web目录下。前端项目通常使用npm或yarn管理。进入目录安装依赖npm install。主要的样式文件可能是src/App.css、src/index.css或者使用了像Tailwind CSS这样的工具。你可以修改CSS变量或直接覆盖样式来改变颜色、字体、布局等。如果你想修改功能逻辑则需要找到对应的Vue/React组件文件进行编辑。修改完成后需要重新构建前端静态文件。通常命令是npm run build。构建产物会生成在dist或build文件夹。最后你需要更新Docker镜像或直接替换掉Nginx服务的静态文件使修改生效。对于不熟悉前端构建的用户一些项目也提供了通过环境变量切换主题如深色/浅色模式的选项可以在.env文件中配置更为方便。6. 安全加固、监控与成本控制将服务暴露在公网上安全是头等大事。同时API调用是实实在在的成本需要有效监控。6.1 基础安全实践强密码/访问控制务必启用项目的密码认证功能。在.env中设置APP_PASSWORD或类似变量。不要使用弱密码。防火墙配置在服务器防火墙如ufw中只开放必要的端口SSH的22 HTTPS的443 以及可能用于其他服务的端口。关闭WebUI应用原本的端口如3000对公网的访问只允许通过Nginx反向代理访问。sudo ufw allow 22/tcp sudo ufw allow 80/tcp sudo ufw allow 443/tcp sudo ufw enable定期更新定期执行docker-compose pull和docker-compose up -d来更新容器镜像获取安全补丁和新功能。同时更新服务器系统sudo apt update sudo apt upgrade。API密钥隔离不要在多个地方使用同一个API密钥。考虑在OpenAI平台为这个WebUI项目创建一个专用的API密钥并设置使用限额Spending Limit。这样即使密钥泄露损失也可控。日志管理确保项目日志不会记录敏感的API密钥或完整的对话内容。检查项目的日志级别配置。6.2 成本监控与优化策略使用OpenAI API费用主要取决于输入和输出的token数量以及模型单价。以下策略可以帮助你控制成本利用项目内置统计很多WebUI项目都有简单的用量统计面板。定期查看了解自己的使用模式。设置OpenAI官方限额登录OpenAI平台在“Usage limits”页面为你的API密钥设置一个硬性的月度消费限额。这是最有效的保险丝。模型选型策略日常对话和头脑风暴优先使用gpt-3.5-turbo。它速度快成本极低约$0.5 / 1M tokens对于大多数不需要深度推理的任务完全够用。复杂分析、编程、创意写作切换到gpt-4或gpt-4-turbo。虽然成本高gpt-4-turbo约$10 / 1M输入tokens但能力显著更强。使用时可以尝试在系统提示词中要求它“逐步思考”或“先给出大纲”有时能减少不必要的冗长输出。启用“联网搜索”等功能需谨慎一些WebUI集成了联网搜索通过如SerpAPI等工具这会产生额外费用且可能大幅增加请求的token数因为搜索结果会作为上下文输入。上下文管理就是成本管理上文提到的智能上下文管理如摘要、滑动窗口不仅能提升模型有效记忆长度更能直接减少每次请求的token数从而降低成本。鼓励在长对话后主动开启新对话。考虑备用方案对于某些对实时性要求不高、或可接受稍低质量的任务可以研究将WebUI后端配置为在特定条件下切换到本地运行的轻量级开源模型如通过Ollama部署的Llama 3、Qwen等实现“混合云”策略进一步降低成本。6.3 性能监控与故障排查即使部署顺利日常运行中也可能遇到问题。这里有一个常见问题速查表问题现象可能原因排查步骤与解决方案页面无法打开 (502/504错误)1. Docker容器未运行或崩溃。2. Nginx配置错误或未重启。3. 防火墙阻止了端口。1.docker-compose ps查看容器状态docker-compose logs查看错误日志。2.sudo nginx -t测试配置sudo systemctl status nginx查看Nginx状态。3. 检查ufw status或云服务商的安全组规则。能打开页面但发送消息后长时间无响应或报错1. API密钥错误或过期。2. 网络无法访问OpenAI API超时。3. 账户余额不足或达到速率限制。1. 检查.env文件中的OPENAI_API_KEY是否正确并在OpenAI平台验证密钥状态和余额。2. 在服务器上执行curl https://api.openai.com/v1/models测试连通性。如需代理在.env中正确配置HTTP_PROXY。3. 查看OpenAI平台的Usage页面和Rate limits页面。流式响应中断或显示不完整1. 网络连接不稳定。2. Nginx或后端服务配置了缓冲或超时时间过短。3. 前端代码存在兼容性问题。1. 检查网络。尝试在服务器本地直接访问后端API端口看是否正常。2. 确保Nginx配置中包含了proxy_buffering off;和合理的proxy_read_timeout例如300秒。3. 更新前端到最新版本或检查浏览器控制台有无JavaScript错误。上传文件功能失效1. 后端未正确处理文件上传。2. 文件大小超过限制。3. 文件类型不被支持。1. 查看后端日志确认文件上传路由是否工作。2. 检查后端配置如Nginx的client_max_body_size后端框架的文件大小限制。3. 确认项目支持的文件格式如.txt, .pdf前端可能做了过滤。对话历史丢失1. 项目使用内存存储容器重启后数据丢失。2. 数据库如SQLite文件权限问题或损坏。3. 浏览器本地存储被清除。1. 检查docker-compose.yml确认数据库文件是否通过volumes映射到了宿主机持久化存储。2. 检查数据库文件所在目录的读写权限。3. 告知用户不要随意清除浏览器数据或鼓励使用导出功能备份重要对话。一个关键的实操心得在修改任何配置尤其是.env和docker-compose.yml后重启服务的最干净方式是docker-compose down docker-compose up -d这能确保所有容器以全新的环境变量启动。如果只是修改了前端静态文件可能只需要重启Nginxsudo systemctl reload nginx。部署并运行一个像“HemulGM/ChatGPT”这样的自托管WebUI远不止是获得了一个聊天界面。它更像是在你和强大的AI模型之间搭建了一座完全由你设计、控制和加固的桥梁。你可以决定桥的样式UI、通行规则权限、速率限制、记录哪些信息日志甚至连接不同的彼岸多种模型API。这个过程本身就是对现代AI应用架构一次绝佳的实践。从环境配置、网络代理、安全加固到成本监控每一个环节都充满了值得学习的工程细节。希望这篇详尽的拆解和指南能帮助你不仅成功搭建起这座桥更能理解并掌控其中的每一块砖石。如果在搭建过程中遇到本文未覆盖的独特问题我的建议是养成查看项目GitHub Issues页面的习惯你很可能不是第一个遇到它的人而开源社区的智慧往往就藏在那里。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2592563.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…