Whiz:基于大语言模型的终端自然语言命令生成工具

news2026/4/26 19:41:54
1. 项目概述为你的终端装上“副驾驶”如果你和我一样每天有超过一半的工作时间是在终端Terminal里度过的那你一定也经历过这样的时刻面对一个复杂的命令组合需要反复查阅手册或者想完成一个简单的自动化任务却要花时间编写脚本。传统的解决方案是依赖记忆、创建别名alias或编写一次性脚本但这些方法要么效率低下要么不够灵活。今天要聊的Whiz就是为了解决这个痛点而生的。它本质上是一个终端里的“副驾驶”Copilot让你能用自然语言直接告诉终端你想做什么然后它来帮你生成并执行正确的命令。想象一下你不再需要记住curl的所有参数来下载一个网页并保存也不需要精确回忆git命令来列出并排序最近的分支。你只需要像和同事说话一样输入wz curl google and store response in google.html或者wz list recent github branches sorted by activityWhiz 就会理解你的意图生成对应的命令并在得到你的确认后执行。这不仅仅是命令补全而是意图理解与自动化执行的结合将我们从繁琐的命令语法细节中解放出来专注于任务本身。这个工具的核心价值在于其“翻译”能力——将人类模糊、口语化的需求精准地翻译成机器可执行的、正确的命令行指令。它非常适合开发者、运维工程师、数据分析师等任何需要频繁使用命令行的专业人士无论是想提升日常效率的资深用户还是希望降低命令行学习曲线的初学者都能从中获益。接下来我将深入拆解 Whiz 的设计思路、安装配置的细节、实际使用中的技巧并分享一些我深度使用后总结的避坑指南。2. 核心原理与架构拆解要理解 Whiz 为何能工作我们需要先抛开“魔法”的视角看看它背后是如何将一句自然语言变成终端命令的。这整个过程可以拆解为几个关键的技术环节理解了这些你不仅能更好地使用它还能在它“犯错”时知道如何纠正。2.1 基于大语言模型的意图理解Whiz 的核心引擎是大语言模型LLM默认是 OpenAI 的 GPT-3.5-turbo。当你输入wz curl google and store response in google.html时Whiz 并不是去匹配一个预设的模板。相反它会将你的整句请求连同一些必要的上下文信息如你的操作系统、CPU架构、Shell路径一起构建成一个提示词Prompt发送给 LLM。这个提示词的大致结构是“用户正在使用 [操作系统] 和 [Shell]他/她说‘[用户的请求]’。请生成一个能够完成这个任务的、安全且正确的命令行命令。只输出命令本身。” LLM 在海量代码和文本数据上训练过它“见过”无数种curl的用法示例。因此它能理解“store response in google.html”意味着需要使用-o或--output参数。最终它可能会返回curl -o google.html https://www.google.com。这个过程的关键在于LLM 具备强大的语义理解和代码生成能力能够处理从未见过的、自由格式的请求。2.2 上下文信息的巧妙运用你可能会注意到Whiz 会发送你的操作系统平台如darwin代表 macOSlinux代表 Linux、CPU 架构和 Shell 路径给 LLM。这绝不是为了收集隐私而是为了生成正确的命令。不同系统下的命令和工具链常有差异。例如在 macOS 上打开一个网址常用命令是open https://example.com而在 Linux 上则可能是xdg-open https://example.com或取决于具体的桌面环境。如果 Whiz 不知道你的系统它可能会生成一个在你电脑上无法运行的命令。同样知道你是bash还是zsh有助于生成更符合你 Shell 特性的命令例如某些变量展开语法不同。因此这些上下文信息是确保命令可执行性的关键是功能的一部分而非冗余数据。2.3 安全执行与用户确认机制一个直接执行 AI 生成命令的工具是危险的。Whiz 的设计考虑到了这一点它采用了一种“建议-确认”的执行流程。当 Whiz 从 LLM 获得生成的命令后它不会立即执行。通常它会通过一个交互式提示例如使用enquirer库将命令展示给你并询问是否执行。这给了你最后审查的机会。你可以检查这个命令是否真的符合你的意图是否存在潜在风险比如rm -rf /这种灾难性命令一个负责任的 LLM 通常不会生成但审查环节是最后的保险。这种机制在隐私声明中也有体现Whiz 声明它不会发送你的文件名、文件内容等环境信息。这意味着它无法实现像“总结当前目录下 log.txt 文件内容”这样的请求因为它根本看不到文件内容。这既保护了你的隐私也划清了工具的能力边界——它是一个命令生成器而不是一个能读取你所有文件内容的超级代理。3. 详细安装与配置指南虽然项目 README 的安装说明看起来只有两行但在实际部署中有几个细节和潜在问题需要特别注意。以下是我在多个系统macOS, Ubuntu, WSL2上安装和配置 Whiz 的完整过程记录。3.1 环境准备与 Node.js 版本管理Whiz 是一个 Node.js 编写的 CLI 工具因此首先需要确保你的系统安装了 Node.js 和 npm。我强烈建议不要使用系统自带的、可能陈旧的 Node.js而是使用一个版本管理工具如nvm(Node Version Manager)。使用nvm的好处是你可以轻松安装、切换不同版本的 Node.js并且所有全局安装的包如whiz_cli都会隔离在当前使用的 Node.js 版本下避免污染系统环境或出现版本冲突。# 安装 nvm (以 macOS/Linux 为例) curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash # 重新打开终端或运行 source ~/.bashrc (或 ~/.zshrc) # 安装最新的长期支持版 (LTS) Node.js nvm install --lts nvm use --lts安装完成后运行node --version和npm --version确认版本。对于 WhizNode.js 版本 16 或以上应该都能良好运行。3.2 全局安装与权限问题接下来执行全局安装命令npm install -g whiz_cli这里有一个常见的“坑”。在 macOS 或 Linux 上如果你遇到EACCES权限错误说明你没有向 npm 的全局安装目录通常是/usr/local/lib/node_modules写入的权限。切勿使用sudo来安装这会导致后续所有权和权限问题。正确的做法是更改 npm 全局目录的归属或者使用一个无需sudo的安装方案。方案一推荐重新配置 npm 的全局安装路径到你有权限的目录。# 创建一个属于你的全局 node_modules 目录 mkdir -p ~/.npm-global # 配置 npm 使用这个新路径 npm config set prefix ~/.npm-global # 将新路径添加到你的 PATH 环境变量中 echo export PATH~/.npm-global/bin:$PATH ~/.zshrc # 或 ~/.bashrc # 更新当前 Shell 环境 source ~/.zshrc # 现在重新尝试安装应该不需要 sudo 了 npm install -g whiz_cli方案二使用节点版本管理器nvm安装的 Node.js 本身就具有用户隔离的全局空间通常不会遇到权限问题。如果你按照 3.1 步骤使用nvm安装 Node.js那么直接npm install -g就是安全的。安装成功后运行wz --help或wz -v来验证安装。如果提示“命令未找到”请检查你的PATH环境变量是否包含了 npm 全局二进制文件所在的目录~/.npm-global/bin或nvm管理的对应路径。3.3 配置 OpenAI API 密钥这是让 Whiz 运转起来的关键一步。你需要一个有效的 OpenAI API 密钥。获取 API 密钥访问 OpenAI Platform 登录后在右上角点击个人头像 - “View API keys”然后创建一个新的密钥。请妥善保存这个密钥因为它只显示一次。设置环境变量正如文档所说你需要将密钥设置为名为OPENAI_API_KEY的环境变量。我建议将其添加到你的 Shell 配置文件中这样每次打开终端都会自动加载。macOS / Linux (bash 或 zsh):# 打开你的 Shell 配置文件 # 如果是 bash: nano ~/.bashrc # 如果是 zsh: nano ~/.zshrc # 在文件末尾添加一行 export OPENAI_API_KEYsk-你的真实API密钥 # 保存并退出编辑器然后让配置生效 source ~/.zshrc # 或 source ~/.bashrcWindows (PowerShell):# 在 PowerShell 中设置用户级环境变量永久 [System.Environment]::SetEnvironmentVariable(OPENAI_API_KEY, sk-你的真实API密钥, [System.EnvironmentVariableTarget]::User) # 然后重启 PowerShell或者在当前会话中临时设置 $env:OPENAI_API_KEYsk-你的真实API密钥Windows (CMD):# 设置用户环境变量永久需要通过系统属性设置或使用 setx 命令 setx OPENAI_API_KEY sk-你的真实API密钥 # 注意setx 设置后需要新开 CMD 窗口才能生效重要安全提示永远不要将你的 API 密钥提交到版本控制系统如 Git或分享给他人。你的密钥关联着你的账户和账单。如果有人获取了你的密钥他们可以使用你的额度进行请求。OpenAI 的 API 调用是收费的GPT-3.5-turbo 费用很低但 GPT-4 较贵请务必保管好。3.4 高级配置模型选择与代理设置模型选择默认的gpt-3.5-turbo模型速度快、成本低对于大多数命令生成任务来说完全足够。如果你发现生成的命令复杂度不够或准确性有待提高可以尝试切换到gpt-4。只需设置另一个环境变量# 在 .zshrc 或 .bashrc 中与 OPENAI_API_KEY 一起设置 export WHIZ_LLM_MODELgpt-4需要注意的是GPT-4 的 API 调用成本远高于 GPT-3.5-turbo且速度可能慢一些。请根据你的需求和预算权衡。网络代理设置如果需要如果你的网络环境访问 OpenAI API 需要配置代理Node.js 的axios或fetch库通常会遵循HTTP_PROXY和HTTPS_PROXY环境变量。你可以在 Shell 配置文件中一并设置export HTTP_PROXYhttp://你的代理地址:端口 export HTTPS_PROXYhttp://你的代理地址:端口设置完成后记得source你的配置文件然后就可以开始体验 Whiz 了。4. 核心使用场景与实战技巧安装配置妥当后让我们进入最有趣的部分实际使用。Whiz 的用法看似简单但通过不同的提问方式和场景组合你可以极大地扩展它的能力边界。以下是我总结的几个核心场景和提升效率的技巧。4.1 基础命令生成与执行这是最直接的用法。你有一个明确的任务但不确定或懒得敲完整的命令。示例 1文件与网络操作wz find all .log files in current directory that are larger than 10MB- 查找当前目录下大于10MB的日志文件。Whiz 可能会生成find . -name *.log -size 10M。wz download the latest linux kernel tar.xz file from kernel.org- 从内核网站下载最新版本。它会生成带有正确URL和参数的wget或curl命令。wz count the number of lines in every python file in this folder- 统计文件夹内所有Python文件的行数。可能生成find . -name *.py -exec wc -l {} 。技巧在请求中尽量包含“在哪个目录”in current directory,in /var/log、“什么格式的文件”.log,.json、“如何排序/过滤”sorted by size,modified today等限定词这样生成的命令更精准。示例 2系统与进程管理wz show top 5 processes by memory usage- 显示内存占用前5的进程。可能生成ps aux --sort-%mem | head -6注意head -6因为第一行是标题。wz kill all processes named “node”- 结束所有名为node的进程。会生成pkill node或killall node执行前务必确认wz check disk usage for home directory in human readable format- 以易读格式检查家目录磁盘使用情况。生成du -sh ~。4.2 开发与版本控制工作流对于开发者Whiz 可以成为 Git 和包管理的得力助手。示例 3Git 操作wz list all local branches, show last commit message and sort by date- 列出所有本地分支、最后提交信息并按日期排序。可能生成一个复杂的git for-each-ref命令或结合git log的别名。wz create a new branch from main called feature/awesome and switch to it- 从主分支创建并切换到一个新功能分支。生成git checkout -b feature/awesome main。wz undo the last commit but keep the changes in staging- 撤销最后一次提交但保留暂存区的更改。生成git reset --soft HEAD~1。示例 4包管理与项目操作wz update all global npm packages- 更新所有全局 npm 包。生成npm update -g。wz clean up node_modules folders in this project and reinstall- 清理并重装依赖。可能生成rm -rf node_modules package-lock.json npm install。这是一个危险操作需谨慎确认wz run tests in watch mode- 以监听模式运行测试。这取决于你的项目如果项目package.json中定义了test:watch脚本Whiz 无法知道所以它可能会生成一个通用的npm test并加上-- --watch参数但这不一定有效。这体现了 Whiz 的局限性——它不了解你项目的具体配置。4.3 复杂工作流与命令组合Whiz 真正的威力在于处理需要多个命令串联的复杂任务。你可以用自然语言描述一个多步骤的工作流。示例 5数据提取与处理wz get the weather forecast for Beijing from wttr.in and save only today‘s info to a file- 从 wttr.in 获取北京天气预报并仅将今天的信息保存到文件。这可能生成curl wttr.in/Beijing?formatj1 | jq .weather[0] today_forecast.json。这里它假设你安装了jq这个 JSON 处理工具。wz find all failed login attempts in /var/log/auth.log and count by IP address- 在系统认证日志中查找所有失败的登录尝试并按IP计数。可能生成grep Failed password /var/log/auth.log | awk {print $11} | sort | uniq -c | sort -nr。技巧分步引导。如果一次性描述一个非常复杂的流程导致 Whiz 生成的命令不理想可以尝试分步进行。先让 Whiz 生成第一步的命令执行并检查结果再基于结果进行下一步的请求。这更像是与一个助手协作而不是一次性交付完整解决方案。4.4 使用中的交互与确认当你运行wz request后Whiz 通常会做以下几件事思考与生成它将请求和上下文发送到 OpenAI API等待模型返回命令。这通常需要几秒钟取决于网络和模型。展示与确认Whiz 会清晰地打印出它生成的命令并询问你是否要执行例如提示Execute? (y/N)。这是你最重要的安全检查点执行与输出如果你确认 (y)Whiz 会执行该命令并将终端输出原样呈现给你。如果你否认 (N或直接回车则命令被取消。重要习惯永远养成在按下y之前快速扫描一遍生成命令的习惯。特别是涉及文件删除 (rm、rmdir)、系统修改 (chmod、chown)、进程终止 (kill、pkill) 或网络操作 (scp、wget到不明地址) 时。虽然 LLM 被训练得相对安全但它并非完美且你的意图可能在传递中被误解。5. 局限性、常见问题与排查技巧没有任何工具是万能的Whiz 也不例外。了解它的边界和可能遇到的问题能帮助你更高效地使用它并在遇到障碍时快速解决。5.1 能力边界与局限性无文件系统访问权限这是最大的限制之一。Whiz 无法读取你本地文件的内容、无法遍历你的目录结构除非通过生成的命令如find或ls。因此它不能实现“总结我昨天写的文档的主要内容”或“对比当前目录下两个配置文件差异”这类需要读取文件内容的请求。它只能生成帮你做这些事的命令。无持久化记忆Whiz 的每次请求都是独立的。它不记得你之前问过什么也不会从之前的交互中学习你的偏好。你不能说“像刚才那样但这次用 JSON 格式”。依赖外部工具Whiz 生成的命令质量部分取决于你的系统是否安装了相应的工具。例如如果它生成了一个使用jq的命令但你的系统没有安装jq那么命令就会失败。它通常不会在生成命令前检查这些依赖。对复杂、模糊请求的应对能力有限过于抽象或需要深度领域知识的请求可能无法得到可用的命令。例如“优化我的数据库查询”这种请求缺乏具体的数据库 schema 和查询语句Whiz 无从下手。成本与延迟每次调用都需要访问 OpenAI API这意味着会产生小额费用使用 GPT-3.5-turbo 时极低和网络延迟通常 1-5 秒。不适合需要极速响应的场景。5.2 常见错误与解决方案下表总结了我在使用过程中遇到的一些典型问题及其解决方法问题现象可能原因解决方案运行wz提示command not found1. 安装未成功。2. npm 全局 bin 目录不在 PATH 中。1. 重新运行npm install -g whiz_cli注意权限问题。2. 执行npm list -g找到安装路径或执行npm config get prefix查看前缀确保{prefix}/bin在 PATH 中。执行命令时长时间无响应或超时1. 网络问题无法连接 OpenAI API。2. API 密钥无效或额度不足。3. 使用了 GPT-4 等慢速模型。1. 检查网络连接如需代理请配置HTTP_PROXY。2. 登录 OpenAI 平台检查密钥状态和余额。3. 换回gpt-3.5-turbo或耐心等待。Whiz 生成的命令执行后报错1. 命令语法错误LLM 生成有误。2. 系统缺少必要工具如jq,ffmpeg。3. 路径或权限错误。1. 仔细阅读错误信息手动修正命令。可将错误信息反馈给 Whiz如wz the command ‘xxx’ failed with error ‘yyy’, fix it。2. 根据错误提示安装缺失的工具包。3. 检查路径是否存在当前用户是否有执行权限。生成的命令不符合预期或过于简单1. 请求描述不够具体。2. 模型理解有偏差。1.优化你的提示词添加更多上下文、指定操作系统、明确输出格式。例如将“压缩文件”改为“将~/project目录递归压缩成project.zip文件”。2. 尝试换用gpt-4模型设置WHIZ_LLM_MODELgpt-4。担心隐私不想发送系统信息对发送平台、架构等信息感到不安。理解这是为了生成正确命令的必要信息。Whiz 的隐私声明已明确仅发送这些有限数据。如果仍介意此类工具可能不适合你。5.3 提升生成质量的“提示工程”技巧虽然 Whiz 简化了与终端的交互但如何与它背后的 LLM有效沟通依然是一门学问。以下技巧能显著提升命令生成的准确率扮演角色在请求开头指定角色。例如Act as a senior Linux sysadmin.或You are a macOS power user.这能引导模型采用更专业、更符合特定系统习惯的思维方式。明确约束指定你希望使用的工具或避免使用的工具。例如using only awk and sed或do not use perl。指定输出明确说出你希望看到的结果形式。例如output in JSON formatprint only the filenames, one per line。分步指示对于复杂任务可以尝试用“第一步...第二步...”的方式描述。虽然 Whiz 每次只生成一个命令但清晰的步骤描述有助于它生成一个组合命令或管道pipe。提供示例如果可能在请求中附带一个例子。例如convert video.mp4 to video.gif, like using ffmpeg with good quality and small size。迭代优化不要期望一次成功。把第一次生成的结果作为起点。如果命令错了把错误信息喂回去wz The command ‘find . -type f -size 10’ failed saying ‘missing argument to -size’. Fix it to find files larger than 10 megabytes.6. 安全使用准则与最佳实践将命令行的执行权部分交给一个 AI 模型安全是重中之重。遵循以下准则可以让你在享受便利的同时最大程度规避风险。6.1 核心安全原则最小权限与人工审核永远审查生成的命令这是铁律。在按下回车键执行前花 3 秒钟快速浏览命令。问自己这个命令在做什么它操作的文件或路径对吗有没有rm、format、dd、chmod 777、 /dev/sda这类高危操作不要在敏感环境中使用避免在拥有生产服务器权限、存储敏感数据或执行关键业务的终端环境中使用 Whiz。一个误解生成的命令可能导致服务中断或数据丢失。使用非特权用户日常开发中尽量使用普通用户账户运行 Whiz而不是 root 或具有 sudo 权限的用户。这样即使生成危险命令系统权限也会将其拦截。注意 API 密钥安全如前所述保护好你的OPENAI_API_KEY。定期在 OpenAI 平台检查 API 调用记录确认没有异常活动。6.2 针对 Whiz 的特定实践利用 Shell 的历史和编辑功能当 Whiz 生成一个有用的复杂命令时即使执行成功了也建议用history | tail -n 20找到它或者直接按上箭头键调出然后将其保存为一个 Shell 别名alias或函数function放入你的~/.zshrc或~/.bashrc中。这样下次你就可以直接使用这个优化过的命令而无需再次调用 AI 并等待。# 例如将 Whiz 生成的复杂查找命令保存为别名 alias findlargefind . -type f -size 10M -exec ls -lh {} \; | sort -k5,5hr结合传统补全和手册Whiz 不是要替代tab补全或man命令。对于你知道存在但记不清参数的命令先用man或--help快速查看如果还是觉得组合复杂再用 Whiz 生成。两者结合效率最高。从简单任务开始逐步建立信任刚开始使用时先让它处理一些无害的、查询类的任务如list files,check disk space。观察其生成命令的准确性和风格。随着信任度增加再尝试更复杂的操作。明确拒绝执行危险命令如果 Whiz 生成了一个看起来有风险的命令即使你可能不确定相信你的直觉选择N不执行。你可以随后手动编写一个更安全的版本或者用更精确的描述让 Whiz 再试一次。Whiz 代表了一种人机交互的新范式从记忆语法到声明意图。它不会让你忘记如何编写命令行而是帮你节省那些用于回忆和拼凑语法细节的精力让你更专注于逻辑和目标。就像计算器没有让我们忘记算术而是让我们能进行更复杂的数学运算一样。任何工具都有其适用范围了解其原理、掌握其技巧、明确其边界方能将其威力安全、高效地为你所用。在我个人的使用中它已经成为处理那些“我知道能用一行命令搞定但具体写法得查一下”这类任务的默认首选切实地提升了在终端内的工作流顺畅度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2557152.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…