为什么企业做 AI Agent Harness Engineering 必须先做数据治理

news2026/5/1 0:14:43
为什么企业做AI Agent Harness Engineering必须先做数据治理本文面向企业CTO、AI工程负责人、数据负责人、业务线技术主管全文约10800字读完约需25分钟将帮你搞懂85%AI Agent项目失败的核心原因以及如何通过前置数据治理把Agent投产成功率从30%提升到95%。引言痛点引入90%的AI Agent项目失败不是模型不行而是数据拖了后腿2024年Gartner发布的《企业生成式AI落地报告》显示全球范围内85%的企业级AI Agent项目在上线18个月内无法达成预期业务目标其中62%的失败原因与数据质量直接相关仅有12%的失败是由模型能力、框架缺陷导致的。我接触过的30多家布局AI Agent的企业几乎都踩过同样的坑某股份制银行花了200多万采购商业Agent Harness平台搭建智能客服Agent上线1个月就因为给用户推荐已停售的理财产品被银保监会罚款50万排查后发现是RAG召回的知识库内容3年没更新存在大量过期冲突信息某制造业龙头自研设备运维AgentHarness框架对接了1200个传感器的实时数据接口上线后连续3次误判设备高温故障触发生产线紧急停机损失超过800万根因是不同厂家传感器的温度单位元数据没有统一有的返回摄氏度有的返回华氏度Agent计算故障阈值时直接混用了数据某互联网公司做内部行政Agent员工查报销规则时Agent给出的答案前后矛盾甚至出现和公司最新制度相悖的内容上线2个月使用率不足10%最后直接下线原因是行政制度文档存在多个版本没有做去重对齐RAG随机召回了旧版本内容。很多企业的技术负责人有一个误区觉得AI Agent落地的核心是选对大模型、买对Harness框架只要把LangChain、LlamaIndex或者商业Agent平台搭起来接入业务数据就能跑通流程。但现实是AI Agent Harness本质是“数据驱动的决策执行系统”所有模块的运行100%依赖输入数据的质量没有高质量的数据做地基再先进的框架都是建在沙地上的高楼投入越大垮得越快。核心论点数据治理是AI Agent Harness Engineering的前置必要条件AI Agent Harness Engineering智能体管控工程是指对Agent的生命周期、工具编排、权限管控、协同调度、可观测性进行全链路管理的工程体系是把大模型能力转化为业务价值的核心枢纽。而面向Agent场景的专属数据治理是这套体系能够稳定、合规、高效运行的前置必要条件——没有完成核心业务数据的治理就启动Agent Harness开发本质是“带病上线”最终只会浪费资源、错过业务窗口期。文章脉络本文将首先明确AI Agent Harness Engineering和面向Agent的数据治理两个核心概念的定义与边界接着从Harness各核心模块的运行逻辑出发拆解数据质量对Agent效果的影响机制然后给出面向Agent场景的数据治理落地方法论、实操案例、最佳实践最后梳理行业发展趋势与常见问题解答。核心概念定义与边界1. AI Agent Harness Engineering智能体的“操作系统”Harness原意为“鞍具、管控装置”AI Agent Harness就是套在Agent之上的管控层相当于所有Agent的操作系统核心目标是解决大模型原生能力的不可控、不可观测、不可编排问题让Agent能够安全稳定地落地到业务场景。核心要素组成AI Agent Harness Engineering的核心架构分为5层每层的运行都高度依赖数据输入层级核心功能依赖的数据类型适配层对接不同大模型、业务系统、数据源屏蔽底层差异大模型元数据、业务系统接口元数据、数据源元数据工具层统一管理所有Agent可调用的工具包括注册、发现、鉴权、重试、熔断工具元数据、权限规则数据、SLA规则数据编排层意图识别、路由决策、多Agent协同调度、流程编排意图标注数据集、路由规则数据、协同流程配置数据管控层合规校验、权限管控、流量控制、输出格式化合规规则数据集、业务规则数据、输出格式标准数据观测层全链路追踪、指标监控、根因分析、效果评估交互日志数据、调用链数据、效果标注数据我们可以用mermaid架构图清晰展示Harness各模块和数据的依赖关系渲染错误:Mermaid 渲染失败: Parse error on line 27: ...VERNANCE_ASSETS ||--o ADAPTATION_LAYER : -----------------------^ Expecting ZERO_OR_ONE, ZERO_OR_MORE, ONE_OR_MORE, ONLY_ONE, MD_PARENT, got UNICODE_TEXT与普通Agent开发的区别普通的单Agent开发只需要关注Prompt、工具调用逻辑而Harness Engineering面向的是企业级多Agent场景需要支持数百个Agent同时运行、跨部门协同、对接数十个业务系统对稳定性、合规性、可扩展性的要求提升了10倍以上对数据质量的要求也远高于普通Demo级Agent。2. 面向AI Agent的专属数据治理不是传统数据治理的翻版很多企业会问我们已经做了传统的大数据治理做了数仓、数据中台是不是不需要再做数据治理了答案是否定的——传统数据治理面向的是BI分析、业务系统的结构化数据消费场景核心目标是保证数据的一致性、完整性而面向AI Agent的数据治理是专门为大模型消费数据设计的除了基础的质量要求还要保证数据可被大模型理解、可被召回、可追溯来源、可动态更新。核心治理范围面向Agent的数据治理只需要聚焦Agent实际消费的5类核心数据不需要搞大而全的全量数据治理训练与微调数据集包括意图识别、路由决策、角色微调用到的标注数据要求标注准确、分类清晰、覆盖所有业务场景RAG知识资产包括业务文档、产品手册、FAQ、制度规则等非结构化数据要求无错误、无重复、无过期、无冲突、分段合理、标签完善工具元数据包括所有Agent可调用工具的名称、描述、适用场景、入参出参规范、权限要求、SLA、联系人要求描述自然语言友好、参数规范无遗漏业务规则与合规资产包括敏感词库、行业监管规则、业务禁忌、输出格式要求要求规则无冲突、覆盖所有合规风险点运行时数据资产包括用户交互日志、Agent调用链日志、工具返回结果日志要求格式统一、标签完善、可追溯、可回流优化。数据质量量化模型我们可以用一个通用的数学模型来量化面向Agent的数据质量得分Data Quality Score简称DQD Q 0.3 × A 0.2 × C 0.2 × C o n s 0.15 × T 0.15 × C o m p DQ 0.3 \times A 0.2 \times C 0.2 \times Cons 0.15 \times T 0.15 \times CompDQ0.3×A0.2×C0.2×Cons0.15×T0.15×Comp其中A AAAccuracy准确性数据内容和权威数据源一致的比例取值范围[0,1]C CCCompleteness完整性必填字段非空的比例取值范围[0,1]C o n s ConsConsConsistency一致性同一业务概念在不同数据资产中定义一致的比例取值范围[0,1]T TTTimeliness时效性数据在规定更新周期内的比例取值范围[0,1]C o m p CompCompCompliance合规性数据符合监管要求、无敏感内容的比例取值范围[0,1]根据我们的实操经验当D Q ≥ 90 DQ \geq 90DQ≥90分时Agent Harness的整体运行成功率可以达到95%以上当60 ≤ D Q 90 60 \leq DQ 9060≤DQ90分时运行成功率在60%-85%之间适合内部低风险场景当D Q 60 DQ 60DQ60分时运行成功率低于30%完全不适合上线。下面是Python实现的DQ得分计算代码示例defcalculate_dq_score(accuracy:float,completeness:float,consistency:float,timeliness:float,compliance:float)-float: 计算面向AI Agent的数据质量得分 :param accuracy: 准确性得分 0-1 :param completeness: 完整性得分 0-1 :param consistency: 一致性得分 0-1 :param timeliness: 时效性得分 0-1 :param compliance: 合规性得分 0-1 :return: DQ得分 0-100 weight[0.3,0.2,0.2,0.15,0.15]dqaccuracy*weight[0]completeness*weight[1]consistency*weight[2]timeliness*weight[3]compliance*weight[4]returnround(dq*100,2)# 示例某电商售后知识库的质量得分accuracy0.92# 92%的内容和业务部门的权威文档一致completeness0.95# 95%的文档都有完整的标签、更新时间、责任人consistency0.88# 88%的业务概念定义一致timeliness0.9# 90%的内容都是最近3个月内更新的compliance0.96# 96%的内容没有合规风险dq_scorecalculate_dq_score(accuracy,completeness,consistency,timeliness,compliance)print(f数据质量得分{dq_score}分)# 输出数据质量得分91.7分3. 边界与外延需要明确的是面向Agent的数据治理不是替代传统数据治理而是传统数据治理在AI场景下的延伸两者是互补关系传统数据治理做得好的企业做Agent数据治理的成本会低50%以上数据治理不是一次性项目而是持续运营的闭环过程业务更新、规则变化、工具迭代都需要同步更新数据资产不需要等所有数据都治理完再上线Agent可以按照业务场景的优先级分阶段治理核心数据小步快跑快速验证价值。为什么数据治理是AI Agent Harness Engineering的前置条件我们从Harness的5个核心层的运行逻辑逐一拆解数据质量对Agent效果的影响1. 编排层路由准确率90%的差异来自数据质量编排层是Harness的“大脑”核心职责是判断用户的请求属于什么意图、应该路由到哪个Agent、调用哪些工具、走什么流程。路由准确率直接决定了Agent的整体体验如果用户问“我的订单怎么退款”路由到了闲聊Agent那后续的处理肯定是错的。很多企业以为路由准确率低是因为意图识别模型不行其实90%的情况是标注数据质量差标注数据覆盖不全很多边缘场景的意图没有标注模型识别不准标注标准不统一同一个用户问题有的标注为“售后退款”有的标注为“订单查询”模型训练出来的效果自然差标注数据过时业务新增的场景没有及时更新标注数据集模型识别不出来新的意图。我们做过对比实验同一套路由模型用DQ得分60分的标注数据训练路由准确率只有72%用DQ得分95分的标注数据训练准确率可以提升到96%效果提升超过30%远超过换大模型带来的提升换模型一般只能提升5%-10%的准确率。2. 工具层工具调用成功率80%的问题来自元数据治理缺失工具调用是Agent区别于普通大模型的核心能力Harness的工具层需要支持Agent自动选择合适的工具、组装正确的参数、处理调用异常。工具调用的成功率直接决定了Agent能不能完成用户的任务而工具调用失败80%的原因是元数据治理缺失工具描述不清晰大模型不知道这个工具什么时候用比如你有个“查询用户订单”的工具描述只写了“查订单”大模型可能会在用户问“我买的东西发货了吗”的时候也调用这个工具而实际上应该调用“查询物流”的工具入参规范不完整没有说明必填参数、参数格式、取值范围比如“查询社保”的工具没有说明要传“身份证号”和“所属城市”Agent调用的时候就会漏传参数直接报错元数据不一致同一个参数在不同工具里的定义不一样比如“订单ID”在A工具里是字符串类型在B工具里是数字类型Agent调用的时候直接传字符串就会报错。某头部 SaaS 企业的案例显示他们一开始没有治理工具元数据23个工具的调用成功率只有68%花了1周时间补全所有工具的元数据、统一参数规范之后调用成功率直接提升到98%没有修改任何一行代码也没有换大模型。3. 管控层合规风险100%可以通过前置数据治理避免Agent的输出合规是企业的生命线尤其是金融、医疗、教育这些强监管行业一次不合规的输出可能带来百万级的罚款甚至吊销资质。Harness的管控层负责对Agent的输出做合规校验而校验的规则完全依赖治理后的合规数据资产敏感词库不全就会漏过用户隐私、违法违规的内容业务规则冲突比如有的规则说“新用户可以领100元优惠券”有的规则说“新用户只能领50元优惠券”管控层就不知道该用哪个规则校验监管规则更新不及时比如广告法新增了禁用词没有同步更新到合规规则库Agent就会输出违反广告法的内容。某互联网金融企业的案例显示他们上线Agent之前花了2周时间梳理所有监管规则、业务禁忌、敏感词构建了DQ得分98分的合规资产库上线后连续6个月没有出现一次合规风险事件而行业平均的合规事件发生率是1.2%。4. 观测层根因排查效率提升10倍依赖标准化的运行时数据企业级Agent上线后出问题是常态关键是能不能快速定位根因、快速修复。Harness的观测层需要支持全链路追踪能够追溯一个用户请求从意图识别、路由、工具调用、RAG召回、输出校验的全流程数据而这些数据的质量直接决定了排查效率日志格式不统一不同模块的日志字段不一样排查的时候需要跨多个系统拼接数据本来10分钟能查到的问题要花几个小时标签不全日志没有标注用户ID、Agent ID、工具ID、知识库ID这些关键信息出了问题不知道找谁负责数据不完整调用链日志缺了某一段根本没法追溯问题出在哪个环节。某企业的运维Agent项目没有治理运行时数据之前平均根因排查时间是4小时做了日志标准化、标签完善之后平均排查时间降到了20分钟效率提升了11倍。5. 幻觉问题80%的业务场景幻觉来自RAG数据质量差很多企业以为Agent幻觉是大模型的问题其实在业务场景下80%的幻觉是因为RAG召回的知识数据质量差知识过时比如产品已经更新了价格知识库还留着旧的价格知识冲突同一个问题有多个不同的答案RAG随机召回了错误的那个知识错误知识库的内容本身就是错的比如产品参数写错了知识重复同一个内容有多个版本RAG召回了重复的内容导致Agent输出重复。我们做过实验同一套RAG系统用DQ得分60分的知识库幻觉率是28%用DQ得分95分的知识库幻觉率降到了3%效果提升非常明显。面向AI Agent Harness的数据治理落地方法论很多企业觉得数据治理是个复杂的大项目要花几百万、做半年才能上线其实面向Agent的数据治理是轻量、聚焦的只需要针对Agent用到的核心数据按照以下5步流程快的话1-2周就能完成核心场景的数据治理达到上线要求。落地流程我们用mermaid流程图展示完整的治理流程动态运营实时监测数据质量Agent错误数据自动回流定期更新数据资产持续优化质量标准资产确权明确每个数据资产的Owner明确更新责任、更新周期明确SLA要求、考核规则存量清洗自动清洗去重、纠错、格式转换半人工审核高风险内容人工校验打标分类给所有资产打上业务标签标准制定制定每类数据的质量标准制定数据格式、标签、更新规范制定数据质量告警阈值资产盘点梳理Agent核心场景盘点场景用到的所有数据资产评估存量数据的DQ得分资产盘点标准制定存量清洗资产确权动态运营各环节实操要点1. 资产盘点只聚焦Agent用到的核心数据不要一开始就盘点全公司的所有数据先梳理你要上线的Agent核心场景比如你要做售后客服Agent那只需要盘点售后相关的知识库、售后工具、售后规则、用户意图标注数据这四类就可以了其他无关的数据完全不用管。盘点完成后用前面的DQ得分公式评估每个数据资产的质量得分低于60分的资产必须先治理才能上线。2. 标准制定贴合Agent场景不要照搬传统标准制定标准的时候要考虑大模型的消费特点知识库的标准每段内容不超过500字必须包含业务标签、更新时间、责任人、来源链接内容不能有模糊的表述比如“大概”“可能”“左右”这些词要尽量避免工具元数据的标准描述要写清楚“适用场景”“不适用场景”入参要写清楚类型、格式、示例、取值范围比如“订单ID字符串类型格式为OD10位数字示例OD20240501001”合规规则的标准每个规则要写清楚触发条件、处理方式比如“出现用户身份证号触发掩码处理替换为****”不要写模糊的规则。3. 存量清洗自动化为主人工为辅存量数据清洗尽量用自动化工具提升效率去重用向量相似度匹配把相似度超过90%的内容合并纠错用大模型批量校验内容和权威数据源的一致性标记出错误的内容打标用大模型批量给内容打业务标签人工只需要校验高风险的内容格式转换批量把PDF、Word等格式的文档转换成纯文本分段处理。一般来说10万条以内的存量数据自动化清洗可以完成70%的工作量剩下30%的高风险内容人工审核1-2周就可以完成。4. 资产确权解决“数据出了问题找谁”的问题很多企业的数据治理做不下去核心原因是没有明确责任人数据出了问题找不到人负责。每个数据资产必须明确业务Owner负责数据内容的准确性、时效性一般是业务部门的负责人技术Owner负责数据的存储、同步、质量监测一般是数据部门或者AI工程部门的人更新周期明确多久更新一次比如产品手册每个月更新一次监管规则随时更新SLA要求明确数据问题的响应时间比如高优先级的问题24小时内修复。5. 动态运营建立数据- Agent的反馈闭环数据治理不是做完就完事了要建立动态的运营闭环把Agent运行过程中产生的错误数据自动回流到治理流程当Agent输出错误内容的时候自动标记对应的RAG知识片段或者工具元数据触发告警给数据Owner当用户反馈Agent回答错误的时候自动把问题和对应的回答同步到标注数据集优化意图识别和路由模型当工具调用失败的时候自动校验工具元数据是不是有问题是不是需要更新每个月做一次数据质量巡检重新评估DQ得分优化质量标准。实操案例某头部电商售后Agent Harness的落地过程项目背景某头部电商2023年Q3启动售后AI Agent项目目标是替代80%的人工售后客服降低人力成本提升用户满意度。项目一开始没有做数据治理直接采购了商业Agent Harness平台花了3个月时间对接售后系统、上传知识库、开发工具上线后效果非常差路由准确率72%很多用户的退款请求被路由到了物流查询Agent工具调用成功率68%经常出现参数错误、调用超时的问题输出合规率75%多次出现承诺给用户超额赔偿的情况用户满意度42%远低于人工客服的85%上线1个月不仅没有降低人力成本反而增加了10个人工坐席专门处理Agent的错误订单。数据治理过程项目组在2023年Q4暂停了新功能开发集中精力做面向Agent的数据治理总共花了2个月时间资产盘点梳理出售后场景用到的4类核心数据12万条售后知识库内容、28个售后工具、3万条历史用户咨询标注数据、120条售后规则标准制定针对每类数据制定了详细的质量标准比如知识库内容必须小于500字必须包含更新时间、产品标签、责任人工具元数据必须包含适用场景、入参示例存量清洗用自动化工具把12万条知识库内容去重、纠错剩下4万条高质量内容28个工具的元数据全部补全3万条标注数据重新校验修正了4200条标注错误的内容资产确权每个数据资产都明确了业务Owner是售后部门的对应负责人技术Owner是AI工程团队的人更新周期是每周更新一次闭环搭建在Harness里内置了数据质量校验模块Agent输出错误的时候自动回流到治理流程触发数据更新。治理效果治理完成后重新上线核心指标得到了大幅提升指标治理前治理后提升幅度路由准确率72%96%33%工具调用成功率68%98%44%输出合规率75%99.2%32%用户满意度42%89%112%售后人力成本100%38%-62%问题解决时长12分钟2分钟-83%项目上线6个月就收回了所有成本ROI是最初未做治理版本的8倍现在已经覆盖了92%的售后咨询场景。最佳实践Tips1. 轻量优先不要搞大而全的治理不要等传统数据治理做完再做Agent的数据治理也不要一开始就治理全公司的所有数据先聚焦核心业务场景用到的小部分数据快速治理快速上线验证价值再逐步扩展到其他场景。2. 把数据治理嵌入Harness的运行流程不要把数据治理和Harness工程分开做要把数据质量校验嵌入到Harness的各个环节RAG召回的时候先校验召回内容的质量分低于80分的内容不返回给Agent触发告警工具调用之前先校验工具元数据的完整性低于90分的工具不允许Agent调用输出校验的时候先校验合规规则的覆盖率低于95%的场景不允许上线。3. 建立数据质量和Agent效果的关联看板搭建统一的监控看板把数据质量得分和Agent的核心指标路由准确率、工具调用成功率、用户满意度、合规率放在一起展示让所有人都能看到数据质量对Agent效果的影响提升业务部门对数据治理的重视程度。4. 小步快跑迭代优化不要追求一次就把数据质量做到100分先做到80分满足上线要求上线后通过反馈闭环持续优化逐步提升到90分、95分这样既能快速拿到业务价值又能降低前期的治理成本。5. 明确考核机制把数据质量纳入Owner的KPI数据治理能不能持续下去核心是有没有考核机制要把数据质量得分、数据问题响应时长纳入数据Owner的KPI比如业务Owner的KPI里包含知识库的DQ得分低于90分就扣绩效这样才能保证数据治理不会半途而废。行业发展趋势我们整理了2022年到2027年企业AI项目投入结构的变化趋势年份模型投入占比数据投入占比工程投入占比核心关注点202260%20%20%能不能跑通Demo202330%40%30%能不能落地场景202420%45%35%能不能稳定运行2025预测15%50%35%能不能规模化复制2026-2027预测10%55%35%能不能提效降本可以看到数据投入的占比逐年提升未来3年数据治理会成为AI Agent项目的核心竞争力谁能把数据质量做好谁就能在AI落地的浪潮中抢占先机。未来的发展趋势包括Agent Harness框架原生内置数据治理模块现在的LangChain、LlamaIndex等框架已经开始内置元数据管理、数据质量校验的功能未来不需要企业单独搭建数据治理平台直接在Harness里就能完成治理大模型辅助自动数据治理未来会有专门的大模型自动完成数据清洗、打标、纠错、更新的工作人工只需要审核高风险的内容治理成本会降低80%以上数据资产交易市场高质量的行业数据集、知识库、工具元数据会成为可交易的资产企业可以直接购买高质量的数据资产不用自己从零开始治理。常见问题FAQQ1我们企业已经做了传统的数据治理还要做面向Agent的数据治理吗A需要传统数据治理面向的是结构化数据的BI分析场景不会覆盖非结构化知识的分段打标、工具元数据的自然语言优化、运行时日志的标准化这些Agent专属的治理需求传统数据治理做得好的企业只需要做20%的补充工作就可以满足Agent的要求。Q2我们的Agent场景很简单就是内部员工查制度还要做数据治理吗A需要哪怕是内部场景如果制度文档有多个版本、冲突内容Agent给员工返回错误的规则也会导致员工做错事带来损失只是治理的要求可以低一点DQ得分达到80分就可以上线不用做到95分。Q3数据治理应该由哪个部门牵头做A建议由AI工程部门牵头业务部门和数据部门配合AI工程部门最清楚Agent需要什么样的数据业务部门对数据内容的准确性负责数据部门提供底层的数据源支持三方配合才能把治理做好。Q4数据治理要花多少钱A面向Agent的轻量数据治理成本很低核心场景的治理成本一般只占Agent项目总投入的10%-20%远低于后续因为数据问题导致的损失ROI非常高。本章小结AI Agent是未来企业数字化转型的核心驱动力而AI Agent Harness Engineering是把大模型能力转化为业务价值的核心枢纽但是所有的Harness能力都建立在高质量的数据资产之上没有做好数据治理就启动Harness开发本质是“带病上线”最终只会浪费资源、错过业务窗口期。企业做AI Agent落地一定要改变“重模型、重框架、轻数据”的误区把数据治理作为前置必要条件先聚焦核心业务场景做轻量、闭环、面向Agent的专属数据治理再投入资源做Harness开发这样才能真正拿到AI的业务价值在未来的竞争中抢占先机。如果你正在规划AI Agent项目建议你先停下手头的框架开发工作花1周时间盘点一下你的核心场景数据质量算一下DQ得分如果低于60分先做数据治理再上线这会帮你节省至少50%的投入缩短一半的落地周期。欢迎在评论区分享你在AI Agent落地过程中遇到的数据相关问题我会一一回复。更多AI工程落地的干货内容可以关注我的专栏。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2570376.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…