Harness Engineering: 为 AI 搭建可持续迭代环境的实践

news2026/3/28 13:18:08
在公司内部一个 AIGC页面 Verify 项目(下面代号HelixVerify)中,我们经历了114 次版本迭代, 将相对benchmark 的风险样本召回率从最初的 8%提升至98.86%,无风险样本通过率从 36.11% 提升至 54.93%。**整个 114 次迭代中,基本没有代码是我手写的。**从第一个版本开始,所有代码都是我指导 AI 完成的——包括搭建闭环环境本身的代码。早期 AI 没有闭环,效率很低:每轮迭代都需要我指出方向、审查结果、告诉 AI 下一步做什么。但 AI 在我的指导下逐步搭建出端到端测试、标准化评测、自动诊断等基础设施——每搭建一个模块,AI 就减少一项对人的依赖。这是一个自举(bootstrapping)过程:AI 用自己写的代码,逐步把自己迭代到能够自主闭环运行。当闭环完成后,AI 可以 7×24 小时自主运行:分析问题、生成策略、修改代码、验证效果、进入下一轮——整个过程无需人工介入。工程师的角色从编写代码转向设计环境、明确意图和构建反馈回路。我们在HelixVerify项目中的实践与 OpenAI 在 2026 年 2 月分享的理念不谋而合:人类掌舵,智能体执行(Humans steer. Agents execute.)。一、HelixVerify: Agent 产出检测系统HelixVerify 是一个 Agent 产出质量验证系统核心通过后置verify系统反馈消除 LLM 生成页面内容时的幻觉与低质量问题。1.1 整体架构HelixVerify 采用三层分离架构:首先人类设定目标(召回率≥90%)和安全边界(不可误杀正确样本)然后就让 AI 自主迭代,完成诊断→策略→实施→验证的闭环其中我作为“架构师” 指出应该执行的架构即下面的混合验证引擎1.2 混合验证-Rule LLM这个架构是我作为人类对 AI 最大的输入。刚开始我让模型持续自迭代,但发现模型(Opus-4.5)做不到自己迭代出一个合理的架构——模型更多是在自己的一亩三分地反复优化。而当我指出”Rule 引擎 LLM 多轮检测可以优势互补”时,模型就在关键指标上持续取得很大进步。设计思路: Rule 引擎和 LLM 各有所长,让它们各司其职:Rule 引擎(23 条规则): 处理确定性错误——HTML 注释残留、JSON 空数据、格式异常等。毫秒级响应,100% 确定,覆盖 30-40% 的错误。LLM 多轮检测(7 个维度并行): 处理语义错误——数值不准确、术语误用、逻辑矛盾、信息遗漏等。需要语义理解,覆盖 60-70% 的错误。FP Filter(后置过滤): 16 条规则 LLM 语义判断,过滤两层检测产生的误报。两者重叠约 10-20%,说明互补性好。二、如何搭建让 AI 自主迭代的闭环环境有了验证引擎还不够——AI 需要一个完整的闭环环境才能自主迭代优化这个引擎。本节是这篇文章的核心:搭建闭环所需的5 个能力模块,以及让闭环 7×24 持续运行的Loop 基础设施。需要强调的是:这些模块本身也是 AI 写的代码。整个过程是一个自举:早期我指导 AI 搭建端到端测试 → AI 有了看的能力 → 我指导 AI 搭建评测工具 → AI 有了量的能力 → ……每搭建一个模块,AI 对人的依赖就减少一层,直到闭环完全合上。这些模块不是一次性搭完的,而是在 114 次迭代中由 AI 逐步搭建的。每个模块的出现,都是因为闭环在某个环节断了,AI 跑不下去了——然后我指出问题方向,AI 来实现解决方案。2.1 端到端测试体系:让 AI”看懂”系统AI 只能改代码,但看不懂改完之后系统内部发生了什么——这就像让一个工程师蒙着眼睛 debug。所以我们要搭建完整的端到端测试框架,让 AI 像人类工程师一样 debug:模拟人类分析 case: AI 发请求、看响应、分析日志,就像人类工程师 debug 一样理解 LLM 的思考过程: 通过日志中的 traceId 追踪每个请求的完整链路,包括 LLM 内部的推理过程——这让 AI 不仅知道”结果不对”,还能理解”哪一步思考出了问题”自主设计测试用例: AI 根据代码变更自己设计测试,不需要人工指定于是 AI 从”只能改代码”升级为”能改代码 能验证效果 能定位问题”。这是闭环的起点——没有这个能力,后面所有模块都无从谈起。2.2 标准化评测(verify_bench):给 AI 一把统一的尺子解决的问题: AI 改完代码后不知道是进步了还是退步了。没有统一标准,AI 无法自主判断迭代结果,闭环在”评估”环节断裂。我的做法: 构建verify_bench评测工具,输出结构化的两份文件:verify_bench 评测输出├── metric.txt → 量化指标,AI 用来判断”好不好”└── detail.txt → 逐条明细,AI 用来分析”哪里不好”metric.txt(指标结果):# AI 可以直接解读的结构化指标{ “total_samples”: 202, “tp”: 85, # 真阳性: 正确检出的错误 “fp”: 234, # 假阳性: 误报 “fn”: 1, # 假阴性: 漏报 “tn”: 345, # 真阴性: 正确通过 “recall”: 0.9886, “pass_rate”: 0.5493}detail.txt(逐条明细):包含每个样本的完整日志、人工标注的 Ground Truth 结果、以及 HelixVerify 产出的实验过程目录。三者并列,AI 可以逐条对比,发现”人觉得对但机器判错”或”人觉得错但机器漏掉”的具体 case。为什么这件事对闭环至关重要?如果 AI 没有一个可程序化调用的评测工具,它就无法自主判断迭代结果。每次改完代码都需要人来看结果、告诉 AI 好不好——闭环就断了。于是AI 每次改完代码后能自动跑评测、自动解读 metric.txt 判断方向、自动分析 detail.txt 定位问题,自主决定下一步。detail.txt 如何构建detail.txt 本身是一个集合指导 AI 去对应地方查看日志、GT 以及 实验过程目录。我这里附录下具体的实验目录构建步骤# # Step 1: 设置环境变量# ...# # Step 2: 创建实验目录带版本号和时间戳# EXPERIMENT_DIRexperiments/v101_stage1_test_$(date %Y%m%d_%H%M%S)mkdir -p $EXPERIMENT_DIRecho 实验目录: $EXPERIMENT_DIR# # Step 3: 运行验证# echo 开始验证 Stage 1...$VENV_PYTHON run_stage_validation_direct.py \ --stage 1 \ --output-dir $EXPERIMENT_DIR# 验证输出示例# # Stage 1 | Samples: 10# Data: stage1.xlsx# Temperature: 0.0 (Fixed)# # [1/10] BIZ_2026011600000005289480 ✅ BC2# [2/10] BIZ_2026010500000004072882 ✅ BC1# ...# [10/10] BIZ_2026011600000005248951 ✅ BC2# Results saved: experiments/v101_stage1_test_20260210_104139/stage1_results.xlsx# # Step 4: 运行verify_bench评测# echo 运行verify_bench评测...cd ../../../verify_bench....# verify_bench会输出结果目录例如# results/20260210_104510_stage1_results_eqfn_v1/# # Step 5: 查看评测结果# echo 查看指标...# 找到最新的results目录LATEST_RESULT$(ls -td results/*stage1* | head -1)echo最新结果目录: $LATEST_RESULT# 查看核心指标cat $LATEST_RESULT/metric.txt# 示例输出# MetricPRF(# tp 3,# fp 13,# fn 1,# p 0.1875, # Precision: 18.75%# r 0.75, # Recall: 75%# f1 0.3, # F1: 30%# )# MetricRecallPass(# (风险样本)全召回率 66.67 %,# (无风险样本)通过率 28.57 %, # )# 查看详细case分析查看前30行head -30 $LATEST_RESULT/detail.txt# # Step 6: 复制verify_bench结果到实验目录# cd$VERIFY_V2_ROOTcp -r ../../../verify_bench/$LATEST_RESULT$EXPERIMENT_DIR/verify_bench_resultsecho✅ verify_bench结果已复制到实验目录# # Step 7: 创建配置快照推荐# .....# # Step 8: 创建分析报告模板# .....# # Step 9: 查看实验目录结构# echo 实验目录结构tree -L 2 $EXPERIMENT_DIR 2/dev/null || ls -lR $EXPERIMENT_DIR# 期望输出# experiments/v101_stage1_test_20260210_104139/# ├── config.json# ├── stage1_results.xlsx# ├── analysis_report.md# └── verify_bench_results/# ├── metric.txt# ├── detail.txt# └── evaluation_results.jsonecho✅ 完成现在可以编辑 $EXPERIMENT_DIR/analysis_report.md 进行详细分析2.3 Badcase 自动诊断:让 AI 自己发现问题解决的问题: 以前每轮迭代,都需要我人工分析 badcase,告诉 AI”这批误报的共同特征是 XXX,你试试从这个方向优化”。我是 AI 迭代的瓶颈。我的做法: 让 AI 直接消费 verify_bench 的两份输出,自动完成诊断:AI 读取 metric.txt 判断当前瓶颈在哪(是召回率不够还是误报太多),然后读取 detail.txt 聚类分析具体 case,自动生成候选优化策略并按预估收益排序。关键设计: AI 的诊断是数据驱动的——它从 detail.txt 的逐条对比中发现规律,而不是凭”直觉”猜测。这比人工分析更系统、更不容易遗漏。解锁的能力: 人类不再需要参与”分析问题”这个环节。AI 自己跑评测、自己分析结果、自己生成策略。2.4 TP 对抗验证:让 AI 的改动安全在当前的指标优化场景汇总AI 自主迭代往往会出现“按下葫芦起了瓢”的情况即优化了一个指标另一个指标反而下降了。 比如在 v105 中 AI 统计了高频误报的 case ,直接设计过滤规则和 prompt 。对于正确样本误报确实减少了 23 个,使得无风险样本召回率上升了但是讲原有的风险样本错误也误杀了风险样本召回率从 90% 暴跌至 40%。之所以有这种”优化一个指标、破坏另一个指标”的困境根因在于 AI 只看了误报数据,没有交叉验证正确样本。所以我们需要TP(True Positive)对抗验证——任何过滤规则上线前,必须验证它不会误杀正确样本:实现 TP 对抗验证后,后续 30 次迭代无一次召回率下降。AI 终于可以放心地优化误报,不用担心破坏已有成果。我们需要有手段保证AI 的迭代从”可能破坏”变为”保证不破坏”。使用代码围栏、Lint、对抗测试与模块等。2.5 阶梯式验证:让 AI 用最低成本试错全量评测(202 样本) 需要 60 分钟。如果每次试错都跑全量,AI 一天只能迭代几次,效率太低。于是我从小样本到大样本逐层验证,90% 的问题在前 3 分钟暴露:为什么不直接跑全量?因为 AI 的大部分尝试会失败——114 次迭代中 70% 是失败或部分达标。让失败在 3 分钟内暴露,比在 60 分钟后暴露,节省了巨大的时间成本。于是AI 一天可以迭代十几次(而非几次),大幅加速”试错-学习”循环。2.6 Loop 基础设施:让 AI 7×24 持续运行前面 5 个模块解决了”AI 能做什么”的问题,但还有一个关键问题:谁来驱动 AI 不停地跑下去?人类不可能 24 小时盯着屏幕按回车。我们需要 Loop 基础设施。Ralph-Loop:让 AI 自己决定”做没做完”Claude Code 本身是 Loop 组成的智能体,而人类使用 Claude Code 的过程(提需求→规划→实现→review→再提需求)本身也是一个 Loop。Ralph-Loop 借助 Stop Hook,强制 AI 每次自然停下时反思任务是否完成,没完成就继续:/ralph-loop “Fix xxx” --max-iterations 10 --completion-promise “FIXED”这个命令让模型修复 xxx,一直到 AI 认为自己修复完成并显式输出 “FIXED” 才会停止,最大迭代 10 次。上下文窗口不会爆掉吗?不会。Ralph-Loop 在每轮任务结束后彻底关闭当前 AI 进程并重新启动,模型将进度和状态存储在本地文件中,剥离”短期记忆”。实际体验: 我跑通了持续运行 6 小时以上的任务。不过也得承认没有很稳定能有效运行这么久——模型会反思进入自身的”无进度循环”中,也可能触发上下文溢出(比如模型突然读了一个很大的日志文件)。保持任务原子化和可验证是关键。之所以我要求是整个流程要做到连续跑 6h 以上–是希望至少人睡觉前启动下睡觉后可以看结果。 这个主要依赖两个一个是 Ralph Loop 本身会不停 save session 再 resume 第二个是需要调试到模型每次工作都有完好的实验记录保证每一次迭代是在上一次基础上前进。让模型每次在新的 session 可以看到之前的实验记录包括benchmark 、评测结果以及评测细节等。Supervisor:给 AI 加一个”AI 主管”Ralph-Loop 的缺点很明显——单纯让 AI 自己反思,不能给 AI 指导性意见,不能像人类一样 review AI 每次停下来的输出,或者在 AI 问你选 A 还是 B 方案时给出判断。解决办法:在最外层 Loop 加一个 Supervisor Agent,它扮演人类的角色:方面Ralph-LoopSupervisor检测方式AI 输出结构化状态 规则解析Supervisor AI 直接审查评估方式基于信号和规则Fork 会话上下文,评估实际质量灵活性需要更新规则代码更新 Prompt 即可Supervisor 会判断:AI 是否在等待确认?是否做了该做的事?代码质量是否达标?用户需求是否全部满足?不过复杂场景下 AI 归根结底不能代替人做判断。当 AI 给出选项 A、B、C 时,Supervisor 或许能根据当下情况选择,但目前还不能像人一样提出 D 选项。比如下面这个场景:AI 自己给出了几个选项并选了 A,但我明显不同意它妥协的做法——这个判断就是人的核心价值所在。下面是 AI 在 Loop 中 “Aha Monent” 的时候:⚠️ Loop 过程中我们要避免上下文的无关消耗 虽然每次新的 Loop 会开启新窗口。但是单次 Loop 上下文窗口依然是非常有限的资源。不珍惜的话不仅仅是效果问题当次 Loop 也可能被中断。 比如实验日志动辄数千行多次轮询会快速耗尽上下文导致 AI失忆。需要主动避免 AI 无效轮询评测过程。# ❌ 不要多次非阻塞读取检查进度每次重新加载全部日志while True: result TaskOutput(task_id, blockFalse) # ✅ 阻塞等待一次性获取结果result TaskOutput(task_id, blockTrue)闭环 Loop 基于测试的应用级”强化学习”当 AI 有了闭环的 5 个能力模块,又有了 Loop 基础设施持续运行,整个系统就构成了一个类似强化学习的过程:闭环合上前后的对比:闭环前(v1-v70)闭环后(v71-v114)人的角色指导 AI 分析 badcase、指定方向、审查每次改动设定目标、审批上线AI 的角色执行人的指令写代码,同时搭建环境模块自主完成诊断→策略→实施→验证全流程迭代周期5-7 天/轮3-4 小时/轮迭代成功率~60%~75%召回率进展0% → ~80%(70 个版本,~4 周)87% → 98.86%(44 个版本,~2 周)114 次迭代最终成果:指标v71 基线v114 最终提升幅度召回率(Recall)87.42%98.86%11.44pp通过率(Pass Rate)36.11%54.93%18.82pp误报数(FP)346234-112 (-32.4%)漏报数(FN)191-18 (-94.7%)三、Harness Engineering:从实践中提炼的方法论前两节讲了我们做了什么、怎么搭建闭环。本节提炼背后的方法论——让这些经验可以复用到其他场景。OpenAI 在 2026 年 2 月分享了类似的理念:用 Codex 智能体完成产品开发,接近 100 万行代码没有一行是人工编写的。他们总结的核心是:人类掌舵,智能体执行(Humans steer. Agents execute.)。工程师的角色从”编写代码”转向”设计环境、明确意图和构建反馈回路”。 OpenAI. 将其提炼为Harness Engineering:Harness Engineering 工程师的主要工作不再是编写代码,而是设计环境、明确意图和构建反馈回路,从而使 AI 智能体能够可靠地工作并交付成果。我们在 HelixVerify 中实践了同样的理念。这里我还想提出基于自身实践的四条核心原则可复制的实施路径如果你想为自己的场景搭建类似的闭环,建议按以下顺序:Phase 1: 让 AI 能”看”和”量”搭建端到端测试体系:让 AI 能发请求、看日志、追踪调用链路对接标准化评测工具:让 AI 有统一的量化指标建立 Git 版本管理:每次迭代自动 commit,全程可追溯、可回滚Phase 2: 让 AI 能”诊”和”治”实现 Badcase 自动诊断:让 AI 能从评测结果中自动发现问题实现 TP 对抗验证:让 AI 的每次改动都安全可控实现阶梯式验证:让 AI 能用最低成本快速试错Phase 3: 让 AI 7×24 自主运行配置 Ralph-Loop 或 Supervisor,让 AI 持续迭代(现在 Claude Code 自带了原生 Loop)失败案例自动记录到知识库,避免重复犯错人类只需设定目标和审批上线结语Harness Engineering 的核心很简单:为 AI 搭闭环,让 AI 自举到自主运行。HelixVerify 的 114 次迭代,基本没有代码是我手写的。AI 在人的指导下,逐步搭建出让自己能够自主迭代的闭环环境——端到端测试、标准化评测、Badcase 诊断、TP 对抗验证、阶梯式验证、Loop 基础设施。每搭建一个模块,AI 对人的依赖就减少一层,直到闭环完全合上,AI 可以 7×24 自主运行。HelixVerify 在质量验证领域验证了这个理念:效率: 迭代周期从 5-7 天缩短至 3-4 小时(30-40 倍)质量: Recall 8% → 98.86%, Pass Rate 36.11% → 54.93%成本: 原本需要很多人标注、看 Case现在只需要开发者为 AI 建立 Harness 的环境当你需要 AI 来完成长流程闭环任务时, 先问自己几个问题如果哪个环节的答案是”不能”,那就是你需要搭建环境中的下一个模块。希望这些经验能对后 OpenClaw 时代开发者有效管理 AI 交付需求有所启发。术语表为了方便非算法背景的读者理解,这里列出文章中使用的核心术语:质量验证指标术语英文解释场景示例召回率Recall所有真实错误中被成功检测出的比例100个真实错误,检出90个,召回率90%通过率Pass Rate没有误报的样本占总样本的比例100个样本,60个完全正确(无误报),通过率60%真阳性TP (True Positive)正确检出的错误样本检测出的错误确实是错误假阳性FP (False Positive)误报,把正确的判断为错误把正确内容误判为错误假阴性FN (False Negative)漏报,把错误的判断为正确错误内容未被检测出真阴性TN (True Negative)正确判断为正确的样本正确内容被正确识别核心机制术语解释价值TP 对抗验证在设计过滤规则前,验证该规则是否会误杀正确样本防止召回率下降阶梯式验证从小样本到大样本逐层验证,快速暴露问题节省验证时间RuleLLM 混合规则引擎处理确定性错误,LLM 处理语义错误优势互补,提升覆盖率工程术语术语解释Badcase错误案例,包括误报(FP)和漏报(FN)Ground Truth (GT)人工标注的正确答案Benchmark用于评测的标准数据集Stage阶梯式验证中的一个阶段注: Recall 和 Pass Rate 指标均相对于当前 benchmark学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2458044.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…