本地AI工作台WormGPT部署指南:集成Ollama与20+开发工具

news2026/5/5 13:20:23
1. 项目概述一个功能全面的本地AI聊天界面最近在折腾本地大模型应用的时候发现了一个挺有意思的项目叫 WormGPT。这名字听起来有点“黑客”味儿但别误会它本质上是一个基于 Ollama 本地大模型的、功能极其丰富的聊天界面。你可以把它理解为一个“超级增强版”的 ChatGPT 网页客户端但它完全运行在你自己的电脑上数据不出本地隐私和安全有保障。这个项目的核心价值在于它把开发者日常用到的很多零散工具都集成到了一个界面里。比如你可以在聊天的同时直接运行终端命令、预览网页效果、编辑多文件项目、画思维导图甚至还能一键在 VS Code 里打开代码。对于我这种经常需要和 AI 讨论代码、快速验证想法、管理小项目的开发者来说它极大地减少了在不同窗口和工具之间切换的麻烦让工作流变得非常顺畅。它适合谁呢首先肯定是开发者尤其是前端、全栈或者对 AI 应用开发感兴趣的朋友。其次如果你对隐私有要求不希望对话数据上传到云端那么本地部署的 AI 工具就是最佳选择。最后即便你只是个技术爱好者想体验一下“拥有一个属于自己的、功能强大的 AI 助手”是什么感觉这个项目也提供了近乎一键的安装方式门槛并不高。接下来我会带你从零开始把这个 WormGPT 部署起来并深入聊聊它的核心功能、使用技巧以及我在实际部署和使用中踩过的那些坑。你会发现它远不止是一个聊天框那么简单。2. 核心架构与设计思路拆解在动手安装之前我们先花点时间理解一下 WormGPT 是怎么工作的。知其然更要知其所以然这样后面遇到问题你才知道从哪里下手解决。2.1 前后端分离的经典架构WormGPT 采用了非常清晰的前后端分离架构这也是现代 Web 应用的标配。前端/app目录这是一个用 React TypeScript Vite 构建的单页面应用。所有的用户界面包括聊天窗口、终端模拟器、文件编辑器、思维导图画布等等都打包在这里。Vite 作为构建工具提供了极快的热更新速度这在开发阶段体验非常好。前端通过 WebSocket 和 HTTP API 与后端通信实现实时交互。后端/server目录这是一个基于 Node.js 和 Express 框架的服务器。它承担了几个核心职责API 网关处理前端发来的各种请求比如发送聊天消息、管理文件、操作知识库等。Ollama 代理后端并不自己运行 AI 模型而是作为一个“中间人”将前端的请求转发给你本地运行的 Ollama 服务并将 Ollama 的响应返回给前端。这是实现本地 AI 对话的关键。终端代理这是我认为非常巧妙的一个设计。为了实现网页内的“终端运行”功能后端通过 WebSocket 创建了一个安全的通道。前端在网页里输入的 shell 命令会通过 WebSocket 发送到后端后端在一个受控的子进程中执行这些命令再将标准输出和错误流实时传回前端显示。这样既实现了功能又通过后端进行了一层安全隔离尽管在生产环境仍需谨慎对待命令执行权限。静态文件服务在构建后它也负责托管前端打包好的静态文件。这种分离的好处是显而易见的前端可以专注于用户体验和交互逻辑后端则处理业务、安全和外部服务集成。两者可以独立开发和部署。2.2 为什么选择 Ollama 作为基石Ollama 是目前最流行的本地大模型运行和管理的工具之一。WormGPT 选择它作为底层支撑是经过充分考虑的开箱即用Ollama 提供了简单的命令行工具可以一键拉取、运行和管理各种开源模型如 Llama 3、Mistral、Gemma 等大大降低了使用门槛。统一的 APIOllama 提供了类 OpenAI 的 API 接口。这意味着 WormGPT 的后端可以用一套几乎固定的代码与任何 Ollama 支持的模型对话未来切换或升级模型非常方便无需重写大量逻辑。活跃的生态Ollama 社区庞大模型更新快有很多优化过的、针对特定场景的模型变体可供选择。项目推荐使用的godmoded/llama3-lexi-uncensored就是社区中一个基于 Llama 3 微调、在某些任务上表现更激进的版本。跨平台Ollama 支持 macOS、Linux 和 Windows这保证了 WormGPT 项目本身也具备了良好的跨平台能力。注意模型的选择直接影响对话质量和能力。llama3-lexi-uncensored是一个社区微调模型并非 Meta 官方发布。它的“非审查”特性意味着它在内容过滤上更宽松这既是优点创造性、无拘束也可能带来风险可能产生不符合伦理或安全的输出。请根据你的使用场景和价值观谨慎选择模型并始终对 AI 的输出保持批判性思考。对于企业或严肃场景建议使用官方版本或经过严格审核的模型。2.3 功能集成的设计哲学All-in-One 工作台WormGPT 最吸引人的地方就是它那 20 多项功能。它的设计哲学很明确围绕“对话”这个核心将上下文相关的工具直接嵌入到交互流程中。举个例子传统工作流可能是1. 在聊天窗口问 AI “如何写一个 Python 爬虫”2. AI 给出代码3. 你复制代码切换到终端创建文件粘贴运行4. 遇到错误再切换回聊天窗口提问。而在 WormGPT 里这个流程被压缩了AI 给出代码后你可以直接在聊天框的“代码块运行器”里点击运行结果立刻显示在下文。如果代码涉及文件操作你可以用“项目编辑器”直接管理。如果需要解释代码结构可以用“思维导图”画出来。所有动作都在同一个标签页内完成上下文对话历史、代码、运行结果始终保持连贯。这种设计极大地提升了“探索-验证-迭代”的效率特别适合快速原型开发、学习新知识和技术调研。当然这也对前端工程的复杂度提出了很高要求从项目将主要 UI 逻辑都放在App.tsx这个单文件里就能看出这是一个高度集成化的设计选择利于快速开发但后期维护可能需要更好的模块化拆分。3. 详细部署与配置指南理论说完了我们动手把它跑起来。官方提供了一键脚本但我们不能只做“脚本小子”得搞清楚每一步在做什么。3.1 基础环境准备首先确保你的系统满足最低要求操作系统Windows 10/11, macOS, 或主流 Linux 发行版。项目说明里写了 Windows但实际上 Linux 和 macOS 同样支持因为核心依赖 Ollama 和 Node.js 都是跨平台的。Node.js版本 18 或更高。这是运行 JavaScript 后端和构建前端的基石。去 Node.js 官网下载安装即可。Git用于克隆项目代码。终端一个你熟悉的命令行工具如 Windows Terminal, PowerShell, iTerm2, Gnome Terminal 等。3.2 一键安装流程深度解析官方推荐使用install.sh脚本。我们以 Linux/macOS 环境为例拆解这个脚本可能做的事情# 1. 克隆项目代码 git clone https://github.com/MrZXN777/WormGPT-.git cd WormGPT- # 2. 赋予安装脚本执行权限并运行 chmod x install.sh ./install.sh当你运行./install.sh时一个设计良好的脚本通常会按顺序执行以下操作你可以用文本编辑器打开install.sh来验证检查系统依赖检查是否已安装 Node.js、npm 等。安装 Ollama如果检测到系统没有安装 Ollama它会自动下载并运行 Ollama 官方的安装脚本 (curl -fsSL https://ollama.ai/install.sh | sh)。这一步可能需要管理员权限sudo。拉取 AI 模型运行ollama pull godmoded/llama3-lexi-uncensored。这是最关键也最耗时的一步模型文件通常有几个 GB 到几十个 GB 大小下载速度取决于你的网络。请确保磁盘空间充足。安装项目依赖进入app和server目录分别运行npm install。这会根据package.json文件安装所有必要的 JavaScript 库如 React, Express, WebSocket 库等。构建前端在app目录运行npm run build。Vite 会将 React 源代码打包、压缩、优化生成静态文件到dist目录为生产环境运行做准备。可能的后置配置设置环境变量、创建必要的日志或数据目录等。实操心得在运行一键脚本前我强烈建议你先看一眼脚本内容。用cat install.sh或文本编辑器打开。这有两个好处一是确认它没有执行任何可疑操作虽然本项目看起来是正规的二是如果脚本中途出错你能知道它卡在了哪一步便于手动修复。对于 Windows 用户可能需要使用 Git Bash 或 WSL 来运行.sh脚本或者寻找对应的.bat脚本。3.3 手动安装更可控的部署方式如果你不信任一键脚本或者安装过程中出了问题手动安装能让你完全掌控过程。步骤其实就是把一键脚本里的命令拆开来执行# 1. 安装并启动 Ollama (如果还没安装) # Linux/macOS curl -fsSL https://ollama.ai/install.sh | sh # Windows: 从官网下载安装包直接安装 # 2. 拉取模型务必等待完成 ollama pull godmoded/llama3-lexi-uncensored # 你可以用 ollama list 命令查看已下载的模型 # 3. 在后台启动 Ollama 服务 ollama serve # 注意这个命令会在当前终端启动服务关闭终端可能会停止服务。 # 更好的方式是让 Ollama 作为系统服务运行具体方法参考 Ollama 官方文档。 # 4. 克隆项目 git clone https://github.com/MrZXN777/WormGPT-.git cd WormGPT- # 5. 安装前端依赖并构建 cd app npm install npm run build # 这会生成 dist 文件夹 cd .. # 6. 安装后端依赖 cd server npm install cd .. # 7. 启动后端服务器它默认会托管前端静态文件 cd server node index.js如果一切顺利终端会输出服务器正在监听的端口默认是 3001。现在打开浏览器访问http://localhost:3001。3.4 首次登录与配置首次访问你会看到一个登录界面需要输入密码。根据项目说明默认密码是Realnojokepplwazy1234。重要安全警告请务必在首次登录后立即修改这个默认密码这个密码是公开在项目文档里的任何能访问你本地服务的人都可以用它登录。修改方法通常在后端的配置文件或环境变量里。你需要查看server/index.js或相关配置文件找到密码验证的逻辑将其改为一个强密码。如果项目没有提供修改界面你可能需要直接修改源代码并重启服务。这是保护你本地环境安全的第一步。登录成功后你就进入了 WormGPT 的主界面。它应该是一个类似 ChatGPT 的简洁布局但侧边栏或顶部会多出很多功能按钮。4. 核心功能实战与技巧界面看起来可能有点复杂别担心我们挑几个最核心、最常用的功能来详细演练一下。4.1 基础聊天与模型管理核心的聊天功能和使用 ChatGPT 类似。在中间的消息框输入内容按Enter发送。右侧或顶部通常会有模型选择器。切换模型如果你通过 Ollama 拉取了多个模型例如ollama pull llama3:8b你可以在这里切换。不同的模型在创意、逻辑、代码能力上各有侧重。调整参数高级设置里通常可以调整“温度”Temperature控制随机性、“最大生成长度”等这些会影响回答的创造性和长度。会话管理WormGPT 支持“会话恢复”这意味着你关闭浏览器再打开之前的对话历史可能还在。它的原理是将对话记录保存在浏览器的本地存储LocalStorage或通过后端保存在服务器本地文件中。4.2 终端运行器在聊天里执行命令这是我最喜欢的功能之一。你不需要离开浏览器就能执行ls,python script.py,git status等命令。如何使用在聊天中输入你的问题例如“帮我列出当前目录的文件。”AI 可能会回复一段文字或者更智能地直接提供一个可执行的代码块。如果回复是代码块并且语言标记为bash或shell界面上通常会有一个“运行”按钮。点击“运行”代码块下方会弹出一个内嵌的终端窗口实时显示命令的执行过程和输出。注意事项与安全提醒权限问题这个终端是以启动后端服务器node index.js的用户身份运行的。这意味着它能执行该用户有权执行的任何操作。绝对不要在 WormGPT 中运行你不信任的命令尤其是rm -rf /、格式化管理等危险命令。沙盒限制它并不是一个完整的、隔离的沙盒环境。虽然通过后端进程执行有一定隔离但文件系统访问、网络访问等权限和宿主环境是一致的。使用场景最适合用来执行一些简单的、与当前对话上下文相关的命令比如安装一个刚刚讨论到的 Python 包 (pip install requests)或者编译一段刚生成的代码 (gcc -o test test.c ./test)。4.3 代码块运行器与实时预览对于 Python、JavaScript 这类脚本语言WormGPT 提供了更进一步的“代码块运行器”。Python当你收到一段 Python 代码点击运行后端可能会启动一个 Python 解释器进程来执行这段代码并将打印结果返回。这对于快速测试算法、数据处理逻辑非常方便。JavaScript前端代码甚至可以在浏览器沙盒环境中直接运行并配合“实时 HTML 预览”功能将结果渲染在一个 iframe 里。你可以让 AI 写一个网页按钮点击运行后立刻在旁边看到渲染效果并与之交互。实时预览对于 HTML/CSS/JS 代码这个功能是神器。你一边和 AI 讨论如何修改一个 CSS 样式一边在预览窗格里实时看到变化效率提升巨大。4.4 项目编辑器与多文件管理当你需要处理一个包含多个文件的小项目时这个功能就派上用场了。上传 ZIP你可以将一个项目文件夹打包成 ZIP通过“项目编辑器”上传。文件树视图界面左侧会呈现一个文件树你可以点击文件进行编辑。多标签编辑像真正的 IDE 一样支持打开多个文件标签页。保存与导出编辑完成后可以在界面上保存或者将整个项目重新下载为 ZIP 包。这个功能非常适合与 AI 结对编程共同迭代一个小的工具脚本、网页或配置集。4.5 思维导图与知识库思维导图这不是一个简单的图表生成器而是一个交互式画布。你可以手动拖拽节点来规划项目结构、梳理知识点也可以让 AI 根据你们的对话内容自动生成一个思维导图的大纲。这对于整理思路、撰写文章大纲、设计系统架构非常有帮助。知识库RAG这是实现“长期记忆”和“专业领域问答”的关键。你可以上传 PDF、TXT、Word 等文档到知识库。当你在聊天中提问时WormGPT 会先从你上传的文档中搜索相关片段检索增强生成RAG然后将这些片段作为上下文提供给 AI 模型从而得到更精准、更贴合你私有知识的回答。例如你可以上传公司 API 文档然后问它“如何调用用户查询接口”5. 高级特性与性能调优掌握了基本功能我们来看看那些让它脱颖而出的高级特性以及如何让它运行得更顺畅。5.1 上下文可视化与自动总结大模型有上下文长度限制比如 4K、8K、128K tokens。长对话后模型可能会“忘记”很早之前的内容。WormGPT 的“自动总结”功能试图解决这个问题。工作原理当对话轮次达到一定数量或总长度接近限制时系统可能会自动调用模型将早期的对话历史总结成一段精炼的文字然后用这段总结替换掉冗长的原始历史再继续后续对话。这样就在有限的上下文窗口内保留了核心信息。上下文可视化这是一个辅助理解的功能。它可能以图形化的方式展示当前对话中哪些部分被模型“关注”或“记住”了帮助你理解模型的“思考”焦点。实操心得自动总结是一把双刃剑。它确实能延长有效对话但总结过程必然有信息损失且会消耗额外的计算资源。对于需要精确引用历史细节的对话如代码调试建议在关键节点手动进行“会话快照”或使用“分支对话”功能如果项目支持。对于创意写作或头脑风暴自动总结则非常有用。5.2 多模型共识与响应变体“4 Parallel Variants”4个并行变体功能非常有趣。你输入一个问题它可以同时调用模型或同一模型的不同参数设置生成4个不同的回答并排展示给你。用途对比择优对于开放性问题你可以快速浏览4种不同风格或角度的回答选择最满意的一个。激发灵感写作、起名、想点子时看多个变体能打开思路。验证稳定性对于事实性问题如果4个回答核心一致可信度就高如果相差甚远就需要警惕。性能影响这显然会消耗4倍的计算资源时间、显存/内存。如果你的电脑配置不高慎用此功能或者只在对答案多样性要求极高时使用。5.3 Git 集成与工作流融合对于开发者内置的 Git 功能可以让你在不离开聊天界面的情况下完成基础的版本控制操作。常用操作查看仓库状态 (git status)、查看更改差异 (git diff)、提交更改 (git commit)、切换分支等。工作流示例让 AI 帮你写一个新功能模块。用项目编辑器保存文件。在 Git 面板中看到文件被修改查看 Diff 确认改动。写提交信息并提交。整个过程流畅无缝非常适合单人小型项目的快速迭代。5.4 性能调优与故障排查WormGPT 的流畅度主要取决于两点前端响应速度和后端Ollama的推理速度。前端卡顿如果界面操作不跟手可以尝试在浏览器开发者工具中检查是否有大量的 JavaScript 错误或内存泄漏。确保你访问的是npm run build后的生产环境版本而不是开发服务器。开发模式的热更新可能会影响性能。关闭暂时不用的功能面板特别是实时预览和终端它们比较消耗资源。AI 响应慢模型层面换用更小的模型如llama3:8b比llama3:70b快得多。godmoded/llama3-lexi-uncensored默认可能是 8B 参数版本但如果你的显卡内存不足它可能会使用 CPU 推理速度极慢。确保 Ollama 正确识别并使用了你的 GPU如果可用。在终端运行ollama ps可以查看模型运行情况。硬件层面这是根本。本地运行大模型尤其是 7B 参数以上的模型需要强大的 CPU 和足够的内存。如果使用 GPU 加速显存是关键。8B 模型量化后可能需要 4-8GB 显存才能流畅运行。考虑对模型进行量化如使用ollama pull llama3:8b-q4_K_M拉取 4-bit 量化版本能在几乎不损失精度的情况下大幅降低资源占用。并发请求不要同时开启太多需要 AI 响应的功能如并行变体、自动总结排队处理会更好。6. 常见问题与解决方案实录在实际部署和使用中我遇到了不少问题。这里把典型问题和解决方法整理出来希望能帮你绕过这些坑。6.1 安装与启动问题问题现象可能原因解决方案运行./install.sh报权限错误脚本没有执行权限或网络问题chmod x install.sh后重试。检查网络特别是下载 Ollama 和模型时需要稳定的连接。ollama pull模型下载极慢或失败网络连接问题或 Ollama 服务未启动1. 检查网络可尝试配置镜像源如设置环境变量OLLAMA_HOST或使用代理。2. 先运行ollama serve确保服务在后台运行再拉取模型。npm install失败报错Node.js 版本过低或网络问题1. 使用node -v确认版本 ≥ 18。2. 尝试使用淘宝镜像源npm config set registry https://registry.npmmirror.com然后重试。3. 删除node_modules和package-lock.json重新npm install。访问localhost:3001无法连接后端服务器未启动或端口被占用1. 在server目录下确认node index.js进程正在运行并监听在 3001 端口。2. 使用lsof -i:3001(macOS/Linux) 或netstat -ano | findstr :3001(Windows) 查看端口占用终止冲突进程。登录密码错误密码被修改或项目版本更新1. 确认输入的默认密码Realnojokepplwazy1234是否正确注意大小写。2. 检查server/index.js或项目根目录下的.env文件看是否有密码配置项。6.2 运行时功能异常问题现象可能原因解决方案聊天无响应一直“思考”Ollama 服务未运行或模型加载失败1. 新开一个终端运行ollama list查看模型是否存在运行ollama run 模型名测试模型是否能独立对话。2. 检查后端服务器日志看是否有连接 Ollama API 的错误通常 Ollama 默认 API 地址是http://localhost:11434。终端运行器无法执行命令后端 WebSocket 连接失败或执行权限问题1. 打开浏览器开发者工具 (F12)切换到“网络”(Network) 标签页过滤 WS (WebSocket)查看连接状态。2. 检查后端启动日志确认 WebSocket 服务器已成功启动。3.重要确保你启动后端服务器 (node index.js) 的终端窗口没有被关闭。代码块运行器Python/JS报错对应语言环境未安装或沙盒限制1. 对于 Python确保系统已安装 Python并且python或python3命令在终端中可用。后端会在子进程中调用系统命令。2. 对于 JS 在浏览器中运行受限于浏览器沙盒无法访问文件系统等高级 API复杂功能可能报错。文件上传或知识库功能失效后端文件读写权限不足或路径配置错误1. 检查server目录下是否有用于存储上传文件的文件夹如uploads/,knowledge_base/并确保 Node.js 进程有写入权限。2. 查看后端日志中的具体错误信息。6.3 性能与资源问题问题现象可能原因解决方案AI 响应速度非常慢CPU 占用100%模型在使用 CPU 推理且模型过大1. 确认 Ollama 是否使用了 GPU。运行ollama run llama3:8b时观察是否有GPU字样输出。2. 换用更小的模型或量化版本如llama3:8b-q4_K_M。3. 升级硬件最直接但成本高。浏览器内存占用越来越高最终卡死前端内存泄漏或长时间会话历史积累1. 定期刷新浏览器页面清理内存。2. 利用会话管理功能及时清理旧的、不重要的对话历史。3. 检查是否有扩展程序冲突尝试在无痕模式下使用。并行变体功能导致程序无响应同时发起多个推理请求资源耗尽1. 在设置中关闭“并行变体”功能或减少并行数量。2. 升级硬件提供更多计算资源。6.4 安全与隐私提醒密码安全再次强调必须修改默认密码。如果项目没有提供修改界面你需要直接修改后端代码中的密码验证逻辑。终端安全网页中的终端拥有与启动后端进程用户同等的权限。切勿在不可信的网络环境如公网下暴露 WormGPT 服务。如果确有远程访问需求务必使用强密码并考虑通过 VPN 或 SSH 隧道访问同时严格限制可执行的命令范围这需要修改后端代码。模型安全谨慎使用来自非官方渠道的微调模型如godmoded/llama3-lexi-uncensored。它们可能包含偏见、错误信息或被植入恶意指令。对于重要工作建议使用官方基础模型或信誉良好的商业模型 API。数据隐私虽然对话数据在本地但通过 WormGPT 上传到知识库的文件、在项目编辑器中创建的代码都存储在你的服务器本地。定期备份这些数据并确保存储目录的安全。7. 自定义与扩展可能性WormGPT 作为一个开源项目提供了很大的自定义空间。如果你懂一些 JavaScript/Node.js可以尝试以下改造修改 UI 主题前端样式集中在app/src/App.tsx和相关 CSS 文件中。你可以调整颜色、布局打造自己喜欢的界面。集成其他模型 API后端server/index.js中与 Ollama 通信的部分可以修改为调用其他兼容 OpenAI API 格式的服务比如本地部署的vLLM、text-generation-webui甚至是云端的 Anthropic Claude、Google Gemini API但这会失去本地化隐私优势。添加新功能例如你可以为代码运行器增加更多语言支持如 Go, Rust或者集成一个简单的数据库查看器。这需要同时修改前端添加界面和后端添加处理逻辑。部署到内网服务器你可以将整套程序部署到一台性能更强的内网服务器上这样局域网内的其他设备如你的笔记本、平板都可以通过浏览器访问这个强大的 AI 工作台共享计算资源和知识库。这个项目展示了将现代 Web 技术与本地 AI 能力深度结合的巨大潜力。它不仅仅是一个聊天工具更是一个可扩展的、以 AI 为核心的个人生产力平台。通过解决部署和使用的具体问题并理解其背后的原理你就能真正驾驭它让它成为你学习和工作的得力助手。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2585087.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…