基于Ollama与Stable Diffusion的Discord AI机器人本地部署指南

news2026/5/13 0:22:22
1. 项目概述一个能聊能画的Discord AI机器人最近在折腾一个挺有意思的玩意儿一个部署在自己电脑上的Discord机器人它不仅能像ChatGPT一样跟你聊天还能根据你的描述生成图片。这个项目的核心是把两个当下很火的开源项目——Ollama本地大语言模型运行工具和Stable Diffusion WebUI著名的AI绘画工具——给“粘”到了一起通过一个Discord机器人作为统一的交互界面。想象一下在你的游戏开黑群或者技术讨论群里一下这个机器人它就能回答你的技术问题、帮你写段代码或者根据你天马行空的想法“画”出一张图来。所有计算都在你自己的机器上完成数据不出本地既满足了隐私需求又玩出了新花样。这个项目最初由 mekb-turtle 发起现在社区还在持续维护甚至正在用 TypeScript 进行重写以提升代码质量。对于想深入理解AI应用集成、Node.js后端开发或者单纯想拥有一个私人AI助手的开发者来说这是个绝佳的练手项目。2. 核心组件与工具选型解析在动手之前我们得先搞清楚这个机器人是靠哪些“积木”搭起来的。每一块积木的选择都直接关系到最终系统的能力、性能和部署复杂度。2.1 大脑与画笔Ollama 与 Stable Diffusion这个机器人的“智力”和“艺术细胞”分别来源于两个独立的AI模型后端。Ollama本地大语言模型的“懒人包”Ollama 解决了一个核心痛点如何让普通人也能在个人电脑上轻松运行各种大型语言模型如 LLaMA 2、Mistral、Orca 等。它通过容器化技术将模型文件、运行环境、必要的参数优化打包在一起。你只需要一句ollama pull llama2就能下载模型一句ollama run llama2就能开始对话无需关心复杂的Python环境、CUDA版本冲突或者显存优化。对于我们这个Discord机器人项目Ollama 提供了干净的HTTP API默认在http://localhost:11434我们的机器人代码只需要向这个地址发送一个包含用户消息的POST请求就能拿到模型生成的回复极大地简化了集成工作。注意Ollama 拉取的模型默认是未经过指令微调的“基础模型”。虽然能生成文本但在对话连贯性、遵循指令方面可能不如ChatGPT。推荐使用orca一个基于LLaMA微调的指令遵循模型或llama2:7b-chat这类对话专用模型体验会好很多。Stable Diffusion WebUI功能最全的AI绘画前端AUTOMATIC1111 的 Stable Diffusion WebUI 几乎是玩AI绘画的标配。它本身是一个功能极其强大的Web图形界面。我们看中的是它的--api启动参数。开启后WebUI会启动一套完整的RESTful API允许外部程序发送文本描述prompt并接收生成好的图片。我们的Discord机器人就可以把用户说的“画一只戴着礼帽的猫”这样的消息转发给WebUI的API拿到图片后再传回Discord频道。选择它而不是其他SD封装是因为其API稳定、功能支持最全面包括各种采样器、模型切换、LoRA等社区资源也最丰富。2.2 交互中枢Discord.js 与 Discord 开发者平台机器人本身是用 Node.js 写的核心通信库是Discord.js。这是一个成熟、文档完善的库几乎封装了Discord官方API的所有功能。它采用事件驱动模型例如当监听到“有消息被创建”的事件时我们的代码就会检查这条消息是否了我们的机器人然后触发相应的处理逻辑。所有这一切的前提是需要在Discord 开发者门户创建一个“应用程序”并将其转化为“机器人”。这个过程会生成一个至关重要的Bot Token相当于机器人的密码。这里有几个关键设置直接影响机器人的能力Message Content Intent消息内容意图必须开启。2022年后Discord为了隐私调整了政策机器人默认无法读取消息全文。开启此意图机器人才能看到用户发送的具体文字内容。Server Members Intent服务器成员意图建议开启。这样机器人才能将消息中的用户ID如123456789替换成实际的用户名让对话更自然。否则回复里可能是一串冰冷的数字。OAuth2 URL生成器用于邀请机器人入群。需要勾选bot权限作用域并在权限列表里至少勾选“发送消息”、“读取消息”、“查看频道”和“读取消息历史”。生成链接后用浏览器打开选择你的服务器即可邀请。2.3 环境与部署Node.js、Docker 与 Makefile项目提供了两种部署方式裸机运行和容器化运行适应不同用户的需求。基础方式Node.js 环境直装这是最直接的方式适合快速上手和在开发阶段进行调试。你需要安装Node.jsv14以上和npm。项目的依赖主要是discord.js、axios用于HTTP请求等通过package.json定义运行npm i即可安装。这种方式让你对进程有完全的控制权可以方便地用console.log调试或者使用nodemon实现代码热重载。进阶方式Docker 容器化部署项目提供了docker-compose.yml文件这是生产环境更优雅的部署方式。Docker 将机器人应用及其运行环境特定版本的Node.js、项目代码、依赖包打包成一个独立的容器。它与宿主机环境隔离避免了“在我机器上好好的”这类问题。通过docker-compose命令可以一键启动所有定义的服务虽然本项目目前主要是机器人本身但可以方便地扩展比如把Ollama也容器化并纳入编排。Makefile的存在则进一步简化了操作。对于不熟悉Docker命令的用户只需要执行make compose-upMake工具就会自动执行背后那条较长的docker compose -p discord-ai up命令。这体现了良好的开发者体验设计。3. 详细配置与实操步骤拆解纸上谈兵终觉浅我们一步步把它跑起来。这里我会融合两种安装方式的细节并补充原文档中一笔带过但实际容易踩坑的地方。3.1 前期准备模型与Discord机器人创建在配置机器人代码之前有两项准备工作必须提前完成因为它们产生的信息是机器人运行的“燃料”。第一步启动并测试Ollama后端前往 Ollama 官网下载并安装对应你操作系统的版本。打开终端拉取一个合适的模型。对于初次尝试orca模型是个不错的平衡点它对指令的理解较好且体积相对适中。ollama pull orca在一个独立的终端窗口启动Ollama服务ollama serve保持这个窗口运行。你可以打开浏览器访问http://localhost:11434如果看到Ollama的欢迎页面说明服务启动成功。更专业的测试是用curl发一个API请求curl http://localhost:11434/api/generate -d { model: orca, prompt: Hello, how are you?, stream: false }如果收到一段JSON格式的回复里面包含生成的文本那么Ollama部分就完全准备好了。第二步创建并配置Discord机器人登录 Discord开发者门户 点击 “New Application”给它起个名字比如 “MyAIBot”。进入应用后左侧菜单点击 “Bot”。点击 “Add Bot”确认。在 “TOKEN” 下方点击 “Copy” 复制令牌。立即将其妥善保存例如放入密码管理器这个令牌只会显示这一次丢失后需要重置。在 “Privileged Gateway Intents” 下打开MESSAGE CONTENT INTENT和SERVER MEMBERS INTENT两个开关。邀请机器人到你的服务器左侧菜单点击 “OAuth2” - “URL Generator”。在 “Scopes” 勾选bot。在 “Bot Permissions” 勾选Send Messages,Read Messages/View Channels,Read Message History。如果希望机器人能上传图片这是必须的还需要勾选Attach Files。页面底部会生成一个URL复制并在浏览器中打开。选择一个你有管理员权限的服务器完成授权。第三步安装并配置Stable Diffusion WebUI可选如需画图功能按照 AUTOMATIC1111 的官方Wiki克隆仓库并安装依赖通常需要Python和Git。启动WebUI时必须加上--api和--listen参数./webui.sh --api --listen--api是启用API接口--listen允许非本地连接这样Docker容器内的机器人才能访问到宿主机上的WebUI。启动后你可以在浏览器通过http://你的本地IP:7860访问WebUI界面。API接口通常位于http://你的本地IP:7860/sdapi/v1/txt2img。3.2 核心配置环境变量文件详解项目根目录下的.env.example文件是一个模板你需要将其复制并重命名为.env这是配置机器人行为的核心。# .env 配置文件示例与详解 DISCORD_TOKEN你的机器人令牌 OLLAMA_URLhttp://host.docker.internal:11434,http://192.168.1.100:11434 MODELorca CHANNELS123456789012345678,987654321098765432 SYSTEM_MESSAGEYou are a helpful assistant. Answer concisely. STABLE_DIFFUSION_URLhttp://host.docker.internal:7860 ENABLE_IMAGE_GENERATIONtrueDISCORD_TOKEN: 填入你第二步复制的那个令牌。OLLAMA_URL: 这是最易出错的配置之一。如果你使用Docker部署机器人在Docker容器内部localhost指的是容器自己而不是宿主机。因此你需要用host.docker.internal这个特殊的主机名来指向宿主机Windows/macOS的Docker Desktop支持。如果Ollama也在另一个Docker容器中则需要配置Docker网络并使用容器服务名。如果你裸机运行Node.js直接使用http://localhost:11434即可。多Ollama实例你可以用英文逗号分隔多个URL机器人可能会按顺序尝试或负载均衡具体取决于代码实现。MODEL: 必须与你在Ollama中拉取并运行的模型名称完全一致例如orca,llama2:7b-chat。CHANNELS: 你希望机器人在哪些频道响应。在Discord设置中开启“开发者模式”后右键点击频道 - “复制频道ID”。多个ID用逗号分隔。如果留空或注释掉机器人可能会在所有频道响应需代码支持。SYSTEM_MESSAGE: 系统提示词用于设定机器人的角色和行为。例如设置为“你是一个说话简洁的编程助手”会让模型在回答技术问题时更倾向简短。设为空字符串可能禁用此功能。STABLE_DIFFUSION_URL: 你的Stable Diffusion WebUI API地址。Docker部署时同样需要注意网络问题使用host.docker.internal或宿主机IP。ENABLE_IMAGE_GENERATION: 设置为true或false来控制是否启用画图功能。3.3 启动与验证方式一使用Node.js直接运行在项目根目录下安装依赖npm install。如果遇到网络问题可以尝试设置npm镜像源npm config set registry https://registry.npmmirror.com。启动机器人npm start。这通常会执行node index.js或node bot.js。观察终端日志。成功的日志通常包括 “Logged in as [你的机器人名]!” 和 “Ready!”。前往你设置了频道ID的Discord频道你的机器人并发送 “Hello”。你应该能收到来自Ollama模型的文字回复。如果启用了画图尝试发送 “画一张日式城堡的风景画”。机器人会回复一个“正在生成图片…”之类的提示稍后会将图片作为附件发送。第一次生成可能较慢因为WebUI需要加载模型。方式二使用Docker Compose运行确保已安装Docker和Docker Compose。在项目根目录包含docker-compose.yml的目录执行docker-compose up -d-d参数表示在后台运行。查看日志确认运行状态docker-compose logs -f验证方式同上在Discord频道中测试聊天和画图功能。实操心得强烈建议在初次启动时不要使用-d后台运行而是直接运行docker-compose up这样所有日志都会实时打印在终端方便你第一时间看到连接错误、令牌无效、模型找不到等问题。4. 代码逻辑与功能扩展探析虽然项目提供了开箱即用的代码但理解其核心逻辑能让你更好地调试和定制它。我们来看看这个机器人是如何工作的。4.1 消息处理流程剖析机器人的主循环大致遵循以下事件流登录与就绪机器人使用DISCORD_TOKEN登录Discord网关。登录成功后触发ready事件打印上线信息。监听消息机器人监听messageCreate事件。每当Discord服务器中有新消息发出这个事件就会被触发事件对象中包含了完整的消息内容、发送者、频道等信息。消息过滤在事件处理函数中首先进行一系列过滤忽略机器人自己的消息防止自问自答导致循环。检查频道白名单如果CHANNELS环境变量有配置则检查当前消息所在的频道ID是否在列表中不在则忽略。检查是否被提及检查消息内容中是否包含了机器人的用户ID!机器人ID或机器人ID。这是触发机器人回复的主要方式。指令解析从消息中提取出纯文本内容去除提及部分并进行简单解析。例如代码可能会检查消息是否以特定关键词如“画”、“generate”开头以决定是调用文字生成还是图片生成功能。任务分发文本聊天将提取的文本可能结合SYSTEM_MESSAGE构造成符合Ollama API格式的JSON payload通过HTTP POST发送到OLLAMA_URL/api/generate。收到流式或非流式响应后将文本回复发送回Discord原频道。图片生成将提取的文本作为prompt构造成Stable Diffusion WebUI API通常是/sdapi/v1/txt2img所需的JSON payload包含prompt、负向提示词、步数、尺寸等参数。发送请求后API返回的是base64编码的图片数据。机器人需要将其解码成二进制Buffer然后作为附件Discord.AttachmentBuilder发送到频道。错误处理在整个过程中任何网络错误、API错误、超时等都需要被try...catch捕获并向Discord频道发送一条用户友好的错误提示而不是让机器人静默失败。4.2 关键代码片段示例与解读以下是一个简化的、基于 Discord.js v14 的核心处理逻辑伪代码帮助你理解// 伪代码展示核心逻辑 const { Client, GatewayIntentBits } require(discord.js); const axios require(axios); const client new Client({ intents: [GatewayIntentBits.Guilds, GatewayIntentBits.GuildMessages, GatewayIntentBits.MessageContent] }); client.on(ready, () { console.log(Logged in as ${client.user.tag}!); }); client.on(messageCreate, async (message) { // 1. 过滤忽略机器人、非指定频道、未提及 if (message.author.bot) return; if (process.env.CHANNELS !process.env.CHANNELS.split(,).includes(message.channelId)) return; if (!message.mentions.has(client.user)) return; // 2. 提取纯文本内容 const rawContent message.content; const botMention !${client.user.id}; // 或 ${client.user.id} const userPrompt rawContent.replace(botMention, ).trim(); // 3. 判断指令类型此处为简单示例实际可能更复杂 if (userPrompt.toLowerCase().startsWith(画)) { // 图片生成逻辑 const sdPrompt userPrompt.substring(1).trim(); // 去掉“画”字 await message.channel.send(正在构思画面请稍候...); try { const response await axios.post(${process.env.STABLE_DIFFUSION_URL}/sdapi/v1/txt2img, { prompt: sdPrompt, negative_prompt: ugly, blurry, low quality, steps: 20, width: 512, height: 512, }); const imageData response.data.images[0]; const imageBuffer Buffer.from(imageData, base64); const attachment new AttachmentBuilder(imageBuffer, { name: generation.png }); await message.channel.send({ content: 根据“${sdPrompt}”生成, files: [attachment] }); } catch (error) { await message.channel.send(画画时出了点问题可能是描述太抽象或者服务器忙。); console.error(SD API Error:, error); } } else { // 文本聊天逻辑 await message.channel.sendTyping(); // 显示“机器人正在输入” try { const response await axios.post(${process.env.OLLAMA_URL}/api/generate, { model: process.env.MODEL, prompt: ${process.env.SYSTEM_MESSAGE}\n\nUser: ${userPrompt}\nAssistant:, stream: false, }); await message.reply(response.data.response); // 直接回复原消息 } catch (error) { await message.channel.send(思考的时候卡壳了请稍后再试。); console.error(Ollama API Error:, error); } } }); client.login(process.env.DISCORD_TOKEN);4.3 潜在功能扩展方向这个项目的基础框架已经搭好你可以在此基础上添加更多有趣的功能多模型切换修改代码让用户可以通过指令切换Ollama模型例如bot /use llama2。这需要动态修改请求中的model参数并可能维护一个可用的模型列表。对话记忆/上下文目前的每次问答很可能是独立的。你可以引入一个简单的内存机制例如为每个频道或用户维护一个最近N条对话的数组在调用Ollama API时将整个对话历史作为prompt的一部分发送从而实现有上下文的连续对话。图片生成参数定制让用户能指定图片尺寸、采样步数、风格等。例如指令可以设计为bot 画 一只猫 --width 768 --steps 30。这需要更复杂的指令解析器。其他AI服务集成除了Ollama和SD还可以集成语音合成TTS、语音识别STT或者调用在线AI API如Google Gemini、Claude让机器人能力更多元。管理指令增加仅管理员可用的指令如/stats查看机器人状态/reset清空某个频道的对话记忆等。5. 常见问题与故障排查实录在实际部署和运行过程中你几乎一定会遇到下面这些问题。我把它们和解决方案整理成了表格方便你快速对照排查。问题现象可能原因排查步骤与解决方案机器人登录失败提示Invalid token或4011. DISCORD_TOKEN 填写错误。2. 令牌已泄露被重置但仍在用旧令牌。3. 环境变量文件.env未正确加载。1. 去 Discord 开发者门户 Bot 页面点击 “Reset Token”获取新令牌并更新.env文件。2. 确认.env文件在项目根目录且变量名正确。在代码开头加console.log(process.env.DISCORD_TOKEN?.substring(0,5))检查是否成功读取。机器人上线了但它没反应1. 未开启MESSAGE CONTENT INTENT。2.CHANNELS环境变量限制了频道当前频道不在列表中。3. 代码中的消息过滤逻辑有误。1. 去开发者门户确认意图已开启修改后需要重新邀请机器人吗不需要意图开关实时生效。2. 检查.env中的CHANNELS值确认当前频道ID已包含在内。3. 在messageCreate事件开头添加console.log(message.channelId, message.content)调试看事件是否触发、内容是否正确。机器人回复文字时提示“思考时卡壳了”或长时间无响应1.OLLAMA_URL配置错误机器人连不上Ollama服务。2. Ollama 服务未运行或崩溃。3.MODEL指定的模型不存在或未下载。4. 电脑资源CPU/内存不足模型加载或生成缓慢。1. 在终端用curl http://你的OLLAMA_URL/api/tags测试Ollama API是否通。Docker部署时特别注意用host.docker.internal或宿主机IP。2. 检查运行ollama serve的终端是否正常。3. 运行ollama list确认模型存在。用ollama pull model重新拉取。4. 观察任务管理器。对于7B参数模型至少需要8GB可用内存。尝试换更小的模型如tinyllama。图片生成功能报错或无法生成1.STABLE_DIFFUSION_URL配置错误。2. Stable Diffusion WebUI 未以--api --listen参数启动。3. 网络防火墙/安全组阻止了访问。4. WebUI 本身出错如下载模型失败。1. 在浏览器或使用curl访问http://你的SD_URL/sdapi/v1/txt2img会返回方法不允许405但至少证明服务可达。访问http://你的SD_URL应能看到WebUI界面。2. 确认启动命令正确。检查WebUI运行终端的日志看是否有API相关错误。3. Docker部署时确保宿主机防火墙允许7860端口入站。在宿主机上curl http://localhost:7860测试。4. 查看WebUI终端日志常见问题是网络问题导致模型文件下载不完整。Docker容器启动后立即退出1..env文件缺失或关键环境变量如DISCORD_TOKEN为空。2. Docker容器内无法解析host.docker.internal主机名某些Linux原生Docker环境。3. 容器内Node.js应用启动时遇到未捕获的异常。1. 运行docker-compose logs查看退出前的错误日志通常会明确提示缺失哪个变量。2. 在Linux上尝试将host.docker.internal替换为宿主机的实际IP地址如172.17.0.1或通过ip addr show docker0查看。更可靠的方式是将Ollama和SD也容器化并用Docker Compose网络连接。3. 根据日志错误信息修改代码或配置。可以尝试先不用-d参数运行直接看输出。生成图片速度极慢1. 未使用GPU加速。2. 图片尺寸 (width,height) 设置过大。3. 采样步数 (steps) 设置过高。4. 模型文件首次加载。1. 确保Stable Diffusion WebUI 启动日志中显示使用了CUDA或ROCm。这通常需要在安装时配置好PyTorch的GPU版本。2. 将默认尺寸从 512x512 调整为 768x768 会显著增加计算量。非必要不提高分辨率。3. 20-30步通常足够。在机器人代码或WebUI设置中降低步数。4. 首次使用某个模型时WebUI需要加载会较慢后续生成会缓存。踩坑心得超过一半的问题都出在网络连接和环境变量上。Docker环境下的localhost问题尤为经典。一个黄金法则是先确保每个后端服务Ollama, SD WebUI自身能独立通过API访问成功再去调试机器人。用curl或Postman工具先手动测试所有API端点能极大缩小问题范围。6. 性能优化与安全考量当你的机器人开始稳定运行甚至有几个朋友一起用时就需要考虑得更远一些了。6.1 性能与资源管理模型选择与硬件平衡Ollama 上的模型从几十亿到数百亿参数不等。对于个人使用的Discord机器人一个7B70亿参数的模型如llama2:7b-chat,mistral:7b在速度和质量上是一个比较好的折衷在16GB内存的电脑上可以流畅运行。13B模型则需要更强的硬件。时刻关注任务管理器中的内存和GPU显存占用。请求队列与限流当前的代码可能没有处理“多个用户同时机器人”的情况。这可能导致请求堆积内存激增甚至Ollama/WebUI崩溃。一个简单的改进是引入一个任务队列将收到的请求依次处理并在机器人忙碌时回复“请稍等”。Discord.js 本身是异步的但需要小心避免同时发起太多耗时的API调用。响应超时设置在调用Ollama和SD API的axios请求中务必设置超时timeout参数。例如timeout: 3000005分钟防止因为某个生成任务卡死而导致机器人线程一直挂起。图片生成优化在SD WebUI的设置中可以启用xformers来优化显存和速度仅限NVIDIA显卡。使用更高效的采样器如DPM 2M Karras可以用更少的步数获得不错的效果。6.2 安全与隐私实践令牌就是一切DISCORD_TOKEN一旦泄露他人就能完全控制你的机器人。绝对不要将它提交到Git仓库.env文件已在.gitignore中但请再次确认。不要在公开场合粘贴。考虑使用密码管理器存储。频道白名单务必使用CHANNELS环境变量将机器人限制在特定的频道。避免它在公开频道被陌生人滥用消耗你的计算资源。输入过滤与审查虽然是在私人服务器但也要考虑基本的过滤。可以对用户输入进行简单检查过滤掉极端辱骂、大量刷屏的文本或者在发送给SD的prompt中强制添加一些安全过滤词NSFW这可以在WebUI的设置中配置。网络隔离如果你在公网服务器上部署确保Ollama11434端口和Stable Diffusion WebUI7860端口的API接口不要直接暴露在公网。它们应该只允许本地127.0.0.1或内部Docker网络访问。你的Discord机器人作为前端对外只通过Discord的安全网关通信。依赖安全定期运行npm audit检查项目依赖是否存在已知安全漏洞并及时更新package.json中的依赖版本。这个项目就像一把瑞士军刀它巧妙地拼接了几个强大的开源工具打开了一扇门让你能在熟悉的聊天环境里直接调用本地AI能力。从配置环境、理解组件交互到排查故障、思考优化整个过程本身就是一个全栈开发的微型演练。最让我有成就感的是看到它第一次在群里回应我的召唤并生成一张虽然粗糙但符合描述的图片时那种“自己造的工具真的能用了”的感觉。你可以把它当成一个起点代码结构清晰完全可以根据你的想法把它改造成专属的多模态AI助手比如加上对本地文档的问答或者连接智能家居。玩得开心也别忘了控制一下它画图的瘾不然你的显卡风扇可能会一直呼啸。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2607647.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…