open-interpreter:用自然语言操控电脑的本地AI助手实战指南

news2026/4/30 23:55:57
1. 项目概述当你的电脑拥有了“自然语言”操作系统如果你用过ChatGPT一定对那种用对话就能完成复杂任务的感觉印象深刻。但很多时候这种对话被限制在了一个网页对话框里它知道很多却无法直接“动手”操作你的电脑。open-interpreter这个项目就是要把这种对话能力从云端“请”到你的本地终端里让它成为你电脑上一个能听、能懂、能执行的智能助手。简单来说open-interpreter是一个在本地运行的开源项目它让你可以通过自然语言直接命令电脑。你不再需要记忆复杂的命令行参数或者为了一个简单的文件操作去写脚本。你只需要像告诉一个懂技术的同事那样用中文或英文描述你的需求比如“把当前目录下所有.jpg图片压缩到原来大小的50%”或者“分析这个CSV文件找出销售额最高的前10个产品并生成图表”它就能理解你的意图自动生成并执行相应的代码通常是Python完成工作。它的核心是连接了大语言模型LLM的代码执行能力。项目本身不“生产”智能而是大语言模型能力的“搬运工”和“执行者”。它提供了一个安全、可控的沙箱环境让模型生成的代码能在你的电脑上运行并将结果反馈给你。这彻底改变了我们与计算机交互的方式从“记忆语法”转向了“描述意图”。对于开发者、数据分析师、研究人员乃至任何需要与电脑频繁打交道的知识工作者来说这意味着生产力的巨大跃升。你可以把它看作是一个永远在线、无所不知、且绝对服从的编程实习生它就在你的终端里随时待命。2. 核心架构与安全设计解析2.1 核心组件交互逻辑open-interpreter的架构清晰而高效主要围绕三个核心组件进行交互用户指令、大语言模型LLM和本地代码执行器。整个工作流形成了一个高效的闭环。首先你在终端输入一句自然语言指令比如“帮我画一个正弦函数的波动图”。open-interpreter会首先将你的指令、当前对话的上下文历史消息以及一些系统预设的提示词Prompt组合成一个完整的请求发送给配置好的LLM。这个Prompt至关重要它告诉模型“你是一个在用户电脑上运行的助手可以执行代码。请根据用户需求生成安全、恰当的Python代码来完成任务并只输出代码。”接下来LLM比如GPT-4会理解你的意图并生成一段对应的Python代码例如使用matplotlib库绘图。open-interpreter收到这段代码后不会盲目执行。它会启动一个受控的代码执行环境通常是一个子进程或安全的解释器会话运行这段生成的代码。代码执行会产生结果可能是成功绘制的图表可能是一段处理后的文本也可能是一个错误信息。open-interpreter会捕获这个结果标准输出、标准错误以及任何生成的图像或文件并将其作为新的上下文连同你的原始指令再次反馈给LLM。LLM会分析执行结果判断任务是否完成。如果完成了它会用自然语言总结结果如果出错了它会分析错误尝试修复代码并再次执行。这个“生成-执行-反馈”的循环会持续进行直到任务被解决或达到迭代上限。注意这个架构的核心风险点在于“代码执行”。open-interpreter默认在本地运行拥有与你当前用户相同的文件系统访问权限。因此绝对不要让它执行来自不可信来源的指令比如“删除所有文件”或“格式化硬盘”。项目通过明确的权限确认和沙箱选项来缓解风险但使用者的判断永远是第一道防线。2.2 权限管理与安全沙箱机制安全是open-interpreter设计的重中之重。毕竟让一个AI模型在你的电脑上自动运行代码听起来就让人神经紧绷。项目团队对此有深刻的考虑设计了几层防护机制。最基础的一层是交互式确认。默认情况下每当open-interpreter准备执行模型生成的代码时它都会在终端里将代码高亮显示出来并询问你是否批准运行y/n。这给了你最后审查的机会。你可以看到它打算做什么如果代码看起来危险比如涉及rm -rf或shutil.rmtree你可以果断拒绝。第二层是安全模式Safe Mode。你可以通过启动参数开启安全模式。在这个模式下open-interpreter会尝试拦截并阻止一些明显危险的操作比如直接调用os.system执行任意shell命令或者尝试访问某些敏感的系统路径。它会要求模型使用更安全的替代方案例如用Python内置的库函数来完成文件操作。第三层也是更彻底的一层是完整的沙箱环境。open-interpreter支持与Docker或Bubblewrap等容器/沙箱工具集成。你可以配置它在一个全新的、与主机隔离的容器中运行所有生成的代码。在这个沙箱里代码对主机文件系统的访问受到严格限制甚至网络访问也可以被禁用。即使代码恶意删除了沙箱内的所有文件你的主机也安然无恙。这对于执行来源不确定的复杂任务或自动化脚本测试来说是终极的安全保障。实操心得对于日常轻度使用保持默认的交互式确认就足够了。但如果你打算用open-interpreter处理大量自动化任务或来自外部的指令强烈建议配置Docker沙箱。配置过程不复杂通常只需要在启动时指定一个Docker镜像如python:3.11-slim即可。这好比给这个强大的助手戴上了一个防护手套既能干活又不会弄伤自己。3. 环境配置与核心参数详解3.1 安装与基础配置安装open-interpreter非常简单因为它是一个Python包。确保你的电脑上安装了Python建议3.8及以上版本然后通过pip一键安装pip install open-interpreter安装完成后直接在终端输入interpreter命令即可启动。首次启动时它会引导你进行配置。最关键的一步是设置LLM API。open-interpreter本身不包含模型它需要连接一个后端LLM服务。目前最主流、效果最好的选择是OpenAI的GPT系列模型如gpt-4、gpt-3.5-turbo。你需要准备一个OpenAI API Key。启动后它会提示你输入。你也可以通过环境变量预先设置export OPENAI_API_KEY你的-api-key interpreter除了OpenAI它还支持通过LiteLLM连接众多其他模型如Anthropic的Claude、Google的Gemini甚至是本地部署的Ollama模型如llama3、qwen。这为追求隐私、控制成本或需要特定能力的用户提供了灵活性。例如使用本地Ollama模型可以做到完全离线、零API成本虽然能力上可能稍弱于GPT-4但对于许多标准任务已绰绰有余。配置模型的方式是在启动时通过参数指定# 使用OpenAI GPT-4 interpreter --model gpt-4 # 使用本地Ollama的llama3模型 interpreter --model ollama/llama3 # 使用Claude 3 interpreter --model claude-3-sonnet-202402293.2 关键启动参数与场景化配置open-interpreter提供了丰富的启动参数让你能精细控制其行为适应不同场景。--auto-run/-y这是最常用的参数之一。加上它open-interpreter将跳过每次执行代码前的确认提示自动运行所有生成的、被认为是安全的代码。这非常适合用于编写自动化脚本或处理一系列已知安全的任务能极大提升流畅度。但请谨慎使用务必在你完全信任当前任务流时再启用。--safe-mode如前所述启用安全模式尝试拦截危险操作。它会增加一层过滤但并非绝对安全。--container指定在Docker容器中运行代码。例如interpreter --container docker python:3.11-slim。这是实现安全隔离的推荐方式。--temperature控制模型生成代码的“创造性”。值越低如0.1代码越保守、确定性强值越高如0.8模型可能尝试更非常规的解决方案。对于代码生成任务通常建议设置较低的温度0.1-0.3以保证代码的准确性和可靠性。--context_window设置模型的上下文窗口大小。对于处理超长对话或需要分析大量代码的任务可能需要调高此值例如GPT-4支持128K上下文。这会影响API调用的成本。--max_output限制单次模型输出的token数防止生成过于冗长的代码。一个典型的高效且相对安全的日常使用配置可能是这样的interpreter --model gpt-4 --temperature 0.2 --auto-run这个配置使用GPT-4模型以较低的“创造力”生成稳健的代码并自动执行适合处理熟悉的文件操作、数据整理等任务。避坑技巧如果你主要使用本地Ollama模型可能会发现模型响应较慢或代码质量不稳定。一个有效的技巧是在指令中更明确地指定代码风格和要求。例如与其说“处理这个数据”不如说“请用pandas库读取data.csv计算每个月的销售总额并使用matplotlib生成一个折线图确保图形清晰并保存为monthly_sales.png”。清晰的指令能引导本地模型产出更精准的代码。4. 实战应用场景与案例拆解4.1 场景一数据分析与可视化自动化这是open-interpreter大放异彩的领域。假设你收到一个混乱的销售数据CSV文件sales.csv你需要快速了解数据概况并生成报告。你可以直接打开终端启动interpreter然后输入“读取当前目录下的sales.csv文件检查是否有缺失值然后按‘产品类别’分组计算每个类别的总销售额和平均单价最后用柱状图展示总销售额排名前五的类别保存为top5_categories.png。”open-interpreter会开始思考并生成类似以下的代码这里为展示进行了简化和注释import pandas as pd import matplotlib.pyplot as plt # 读取数据 df pd.read_csv(sales.csv) # 检查缺失值 print(缺失值统计) print(df.isnull().sum()) # 数据清洗假设我们决定删除有缺失值的行 df_clean df.dropna() # 分组计算 grouped df_clean.groupby(产品类别).agg({ 销售额: sum, 单价: mean }).rename(columns{销售额: 总销售额, 单价: 平均单价}) print(\n分组统计结果) print(grouped) # 选取总销售额前五的类别 top5 grouped.nlargest(5, 总销售额) # 绘制柱状图 plt.figure(figsize(10, 6)) bars plt.bar(top5.index, top5[总销售额], colorskyblue) plt.title(总销售额前五的产品类别) plt.xlabel(产品类别) plt.ylabel(总销售额) plt.xticks(rotation45, haright) # 旋转x轴标签 # 在柱子上添加数值标签 for bar in bars: height bar.get_height() plt.text(bar.get_x() bar.get_width()/2., height 0.01*max(top5[总销售额]), f{height:,.0f}, hacenter, vabottom) plt.tight_layout() plt.savefig(top5_categories.png, dpi300) plt.show()它会一步步执行这段代码你会在终端看到缺失值统计、分组结果最后弹出一张保存好的图表。整个过程你无需知道pandas或matplotlib的任何语法。实操心得对于复杂的数据操作模型有时会生成过于繁琐或效率不高的代码。一个技巧是在任务开始前先给它一个“角色设定”。例如你可以先说“你是一个资深数据分析师擅长使用高效、简洁的pandas和matplotlib代码。请完成以下任务...” 这往往能引导模型产出质量更高的代码。4.2 场景二系统管理与文件批量处理日常工作中我们常遇到一些琐碎但耗时的文件操作。open-interpreter是绝佳的帮手。案例整理下载文件夹你的下载文件夹堆满了各种图片、文档、压缩包一片混乱。你可以命令它“遍历我的‘下载’文件夹路径是/Users/你的用户名/Downloads创建三个子文件夹分别叫‘Images’、‘Documents’、‘Archives’。然后将所有.jpg,.png,.gif文件移动到‘Images’文件夹将所有.pdf,.docx,.txt文件移动到‘Documents’文件夹将所有.zip,.tar.gz文件移动到‘Archives’文件夹。最后给我一份移动文件的日志。”open-interpreter会生成利用os和shutil库的Python脚本精准地完成分类和移动。你甚至可以让它更智能一点比如“只移动30天前下载的文件”或者“对于重复文件只保留最新的一个”。案例批量修改文件名有一百张图片命名杂乱无章IMG_001.jpg,photo1.png...你想统一成vacation_001.jpg,vacation_002.png这样的格式。“将当前目录下所有的图片文件.jpg, .png按照修改时间从早到晚排序然后批量重命名为trip_加上三位数字序号001, 002...并保留原扩展名。”它会处理好排序、生成序列号和重命名避免手动操作可能导致的错误。重要警告在执行任何文件删除、移动或覆盖操作时务必先让open-interpreter运行一个“模拟”或“试运行”版本。你可以在指令中明确要求“先不要实际移动只打印出计划移动的文件列表让我确认。” 确认无误后再让它执行真正的操作。这是防止误操作的关键习惯。4.3 场景三快速原型开发与代码生成作为开发者我们经常需要写一些工具脚本、测试用例或者快速验证某个库的功能。open-interpreter可以极大加速这个“探索”过程。例如你想测试一个新的Python库requests-html来爬取网页内容但懒得去查文档和写样板代码。你可以直接说“使用requests-html库抓取‘https://example.com/news’这个页面提取所有h2标签下的新闻标题和对应的链接然后把这些数据保存到一个名为news.csv的文件里包含‘title’和‘url’两列。”几十秒内一个可运行的爬虫脚本就写好了并且直接执行给了你结果。如果运行出错比如网络问题或元素选择器不对你可以直接描述错误“它报了一个超时错误请增加超时时间到10秒再试试。” 或者“好像没找到h2标签请打印出页面HTML结构让我看看。” 通过这种对话式的调试解决问题的速度远超传统方式。避坑技巧在生成涉及网络请求或第三方API调用的代码时模型有时会使用硬编码的API密钥或敏感信息。务必在指令中提醒“注意不要在代码中暴露任何真实的API密钥请用YOUR_API_KEY这样的占位符代替并提示我手动替换。” 养成良好的安全习惯。5. 高级技巧与效能提升指南5.1 自定义系统提示词System Prompt工程open-interpreter与LLM交互的核心是系统提示词System Prompt。默认的提示词已经不错但通过自定义你可以让助手更贴合你的个人习惯和专业领域。你可以通过--system-message参数来提供自定义提示词。例如如果你是一名金融数据分析师你可以这样启动interpreter --system-message 你是一个专业的金融数据分析助手精通pandas, numpy和量化分析库。你生成的代码应注重计算效率和准确性。在输出任何结果时优先考虑使用表格形式呈现数字并对关键指标进行简要的文字解读。这样当你要求分析股票数据时它生成的代码会更倾向于使用向量化操作输出的结果也会更结构化、更专业。自定义提示词可以包含角色设定明确助手的专业领域。代码风格要求如要求添加注释、使用特定的命名规范snake_case、进行异常处理等。输出格式偏好例如“始终将DataFrame的前5行和后5行都打印出来”“图表使用seaborn样式配色方案为‘darkgrid’”。安全限制明确禁止某些操作如“绝对不要使用os.system或subprocess执行未经验证的shell命令”。一个强大的自定义提示词能让你这个“实习生”从一开始就按照你的工作方式行事省去大量后续调整的沟通成本。5.2 会话持久化与任务编排默认情况下open-interpreter的会话是临时的关闭终端就消失了。但你可以使用--save参数来保存整个会话。interpreter --save my_analysis_session.json这会将你和助手的所有对话包括生成的代码和执行结果保存到一个JSON文件中。之后你可以用--load参数重新加载这个会话从中断的地方继续或者复盘整个分析过程。这对于进行长期、复杂的项目分析至关重要保证了工作流的可复现性。更进一步你可以将一系列指令写在一个文本文件里然后通过管道或重定向的方式批量执行。这实现了简单的“任务编排”。例如创建一个文件tasks.txt# tasks.txt 分析 sales_q1.csv计算各区域季度环比增长率。 将结果生成一个名为 growth_by_region.png 的条形图。 把关键数据摘要写入 summary_report.md 文件。然后运行cat tasks.txt | interpreter --auto-runopen-interpreter会逐行读取指令并执行。结合自定义系统提示词你可以构建出非常强大的自动化分析流水线。5.3 性能优化与成本控制使用云端LLM如GPT-4时成本和响应速度是需要考虑的因素。成本控制选用合适模型对于逻辑简单、代码量不大的任务gpt-3.5-turbo是性价比极高的选择其代码生成能力对于常规任务已足够成本远低于GPT-4。精简上下文过长的对话历史会消耗大量token。对于不相关的旧任务可以开启新会话来重置上下文。open-interpreter目前没有自动修剪上下文的功能需要手动管理。本地模型优先对于隐私要求高、任务固定、且对延迟不敏感的场景积极尝试本地部署的模型如通过Ollama。一旦部署完成后续使用零成本。性能优化明确指令减少轮次模糊的指令会导致模型生成不准确的代码需要多轮调试增加总token消耗和时间。在第一次指令中就尽量清晰、完整地描述需求、输入格式和期望输出。利用--auto-run对于可信任的自动化流程使用--auto-run可以避免人工确认的等待时间让任务流快速执行。代码缓存思想对于经常执行的类似任务比如每周都要运行的销售数据汇总可以在open-interpreter生成并验证代码正确后将最终的Python脚本保存下来。下次直接运行这个脚本而不是重新通过LLM生成。open-interpreter在这里扮演的是“脚本作者”的角色而不是每次的“执行者”。6. 常见问题排查与故障解决实录在实际使用中你可能会遇到一些典型问题。以下是我踩过的一些坑和解决方案。6.1 模型无法连接或响应缓慢问题现象启动interpreter后长时间卡在“思考”状态或直接报错“API连接失败”。排查步骤检查API密钥首先确认你的OPENAI_API_KEY环境变量或配置文件中的密钥是否正确是否已过期或有使用额度限制。检查网络连接特别是使用公司网络时可能存在代理或防火墙限制。尝试在终端使用curl命令测试是否能访问OpenAI的API端点。切换模型如果你配置的是gpt-4有时可能因为该模型负载过高而响应慢。可以临时切换到gpt-3.5-turbo试试看是否是模型特定问题。查看详细日志使用--debug或-d参数启动interpreter它会输出更详细的请求和错误信息有助于定位问题。interpreter --model gpt-4 --debug6.2 生成的代码执行报错这是最常见的情况。错误可能来自模型对任务理解有偏差也可能来自你本地环境缺少依赖。典型错误与解决错误类型可能原因解决方案ModuleNotFoundError: No module named ‘xyz‘本地Python环境缺少所需的第三方库。直接告诉open-interpreter“这个脚本需要pandas和seaborn库我的环境里没有安装请在代码开头添加安装这些库的命令使用pip install。” 它会生成包含pip install的代码。注意在生产环境或容器中需谨慎使用。FileNotFoundError: [Errno 2] No such file or directory: ‘data.csv‘文件路径错误。模型可能对当前工作目录理解有误。在指令中提供绝对路径或者先使用简单的指令让助手列出当前目录内容确认位置。例如先说“打印出当前工作目录和ls命令的结果。” 然后再进行文件操作。SyntaxError或IndentationError模型生成的代码存在语法错误。比较少见但低质量模型可能出现。直接将错误信息复制粘贴回对话中说“这段代码执行时出现了语法错误[粘贴错误信息]请修正它。” 模型通常能很好地理解并修正自己的错误。代码逻辑错误运行不报错但结果不对模型对需求理解有误。不要直接说“代码错了”。应该描述你观察到的现象与期望的差异。例如“代码运行了但生成的图表X轴是日期我希望能按周聚合显示。请修改代码将日期数据按周分组后再绘图。”核心技巧将open-interpreter的调试过程视为一场对话。你是一个“产品经理”在向一个能力极强但有时会误解需求的“程序员”提需求。清晰、无歧义地描述问题现象和期望目标是高效协作的关键。6.3 处理长时间运行或资源密集型任务问题如果让open-interpreter执行一个需要运行几分钟甚至更久的任务如训练一个小型机器学习模型对话可能会因API超时而中断。解决方案任务分解不要用一个指令描述一个巨型的任务。将其分解为多个步骤。例如不要直接说“训练一个预测模型”而是分解为“第一步加载并探索dataset.csv数据。”“第二步进行数据预处理和特征工程。”“第三步拆分训练集和测试集训练一个随机森林模型。”“第四步评估模型并保存。” 分步执行和确认。生成独立脚本对于已知的长时间任务更好的方式是让open-interpreter生成一个完整的、可独立运行的Python脚本文件。指令可以是“请将上述所有步骤的代码整合成一个名为train_model.py的Python脚本文件并添加详细的注释。这个脚本应该能通过python train_model.py直接运行。” 然后你脱离open-interpreter会话在后台运行这个脚本。使用--offline模式如果支持对于完全使用本地模型如Ollama的情况网络超时问题不存在但需注意本地计算资源消耗。open-interpreter不是一个万能魔法它最擅长的场景是中小规模的自动化、探索性和辅助性任务。理解它的能力边界并用上述技巧与之配合才能将它工具的价值发挥到最大。它正在从根本上改变我操作电脑的方式从记忆命令和语法转变为思考和描述目标。这个转变带来的效率提升一旦习惯就再也回不去了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2570334.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…