AI Agent Harness Engineering 开发必备技能栈:编程语言、框架与工具全梳理

news2026/4/10 23:28:05
AI Agent Harness Engineering 开发必备技能栈:编程语言、框架与工具全梳理一、引言 (Introduction)钩子 (The Hook)你是否见过凌晨三点的硅谷车库咖啡馆?哦,现在的硅谷极客早就不再只盯着屏幕上单调的GAN生成图或微调Transformer的loss曲线了——最近,一杯Espresso旁边,永远亮着的不再是PyTorch Profiler,而是两个窗口的来回切换:左边是写满结构化思考链、工具调用指令的Prompt画布;右边是监控Agent调用链、状态管理、Token消耗的Dashboard——没错,这就是**AI Agent Harness Engineering(AI智能体工程化开发)**正在发生的革命。根据Gartner 202X年的技术成熟度曲线预测:2026年,AI Agent的企业级部署量将从2024年的不足10%飙升至60%以上,成为继大语言模型(LLM)落地后的下一个“杀手级应用范式”。而在这场范式转移中,纯靠“调Prompt、堆文档”的“Prompt炼金术师”已经无法满足企业的大规模、高可用、低成本、可观测、可扩展的Agent需求——**Harness(工程化 harness,而非单一框架或工具)**这个词开始频繁出现在Airbnb、Stripe、OpenAI、Anthropic的技术博客里,意味着Agent开发正在从“实验品”走向“工业化生产”。那什么是真正的AI Agent Harness Engineering?它需要什么样的核心技能栈?定义问题/阐述背景 (The “Why”)先从几个血淋淋的“实验品Agent失败案例说起吧——这是我们团队过去一年在20多个企业级Agent PoC(概念验证)到PoD(部署验证)再到正式上线的踩坑血泪史:**案例1(某跨境电商客服Agent:“调Prompt堆了1000行,改个语言版本就得重新调3天,测试覆盖不了边界场景(比如黑产伪装的退款申请+多语言混合问题);**案例2(某金融风控Agent:“用了某个开源的单Agent框架,调用多跳工具链偶尔会陷入“死循环询问用户地址”的状态,Debug根本找不到原因,监控显示工具调用的参数错误,死循环断点也没有日志;**案例3(某游戏工作室AI助手Agent:“用了某个SaaS化的Agent平台,功能很全,但每小时调用LLM和第三方工具API的成本是2000美元,上线3天老板直接叫停;**案例4(某科研文献综述Agent:“需要从PubMed、ArXiv、Google Scholar爬取1000+篇文献,做摘要、分类、引用分析,单个单Agent跑3天,多Agent并行又出现状态冲突、任务分配不均的问题,最后还是用了传统的ETL+LLM微调,效率提升了,但扩展性为0——要加Semantic Scholar的API就得重构整个系统。这些问题,本质上都不是LLM的问题,而是没有用工程化的思维和工具链来构建Agent的问题——就像2010年左右没有用Docker、K8s来构建微服务一样,没有Harness的Agent开发,效率低下、成本高昂、可维护性为0、可观测性几乎不存在。那什么是AI Agent Harness Engineering?我给它下的定义是:AI Agent Harness Engineering(AI智能体工程化开发)是一门将软件工程的核心原则(模块化、可复用、可测试、可观测、可部署、可扩展、高可用、低成本)与AI智能体的核心技术(LLM推理、提示工程、工具调用、记忆管理、多Agent协作、状态管理、推理控制流)结合起来,系统化、工业化构建和部署AI智能体的交叉学科。而这门交叉学科的核心载体,就是今天我们要梳理的——编程语言、框架与工具全栈。亮明观点/文章目标 (The “What” “How”)读完这篇文章,你将:清晰理解AI Agent Harness Engineering的核心概念、边界与外延(不再把AI Agent等同于单Agent Chatbot,也不再把Harness等同于单一框架或工具);系统掌握AI Agent Harness Engineering的完整技能栈(从底层的编程语言,到中间层的核心框架,再到上层的工具链、部署工具、监控工具);对比不同编程语言、框架与工具的优劣势(用科学的维度对比,帮你在不同场景下选择最合适的技术栈);通过一个实战案例(跨平台数据聚合分析多Agent系统),了解如何从零开始构建一个完整的、工程化的AI Agent系统;掌握AI Agent Harness Engineering的最佳实践、常见陷阱与避坑指南;了解AI Agent Harness Engineering的行业发展与未来趋势。文章的结构是:先铺垫基础知识/背景,介绍AI Agent的核心概念、边界与外延、核心要素组成、概念之间的关系(ER图、对比表)、数学模型、算法流程图;然后梳理核心技能栈的**第一层:编程语言(Python、TypeScript/JavaScript、Go、Rust);接着梳理核心技能栈的**第二层:核心框架(单一Agent框架、多Agent协作框架、Agent推理控制流框架、跨语言Agent Runtime);再梳理核心技能栈的**第三层:上层工具链(提示工程工具、记忆管理工具、工具调用工具、多模态工具、部署工具、监控与可观测性工具、测试工具);然后通过一个跨平台数据聚合分析多Agent系统的实战案例,把所有技术栈串起来;接着讲AI Agent Harness Engineering的最佳实践、常见陷阱与避坑指南;最后讲行业发展与未来趋势;总结全文,给读者行动号召。二、基础知识/背景铺垫 (Foundational Concepts)核心概念定义在梳理技能栈之前,我们必须先明确几个核心概念——这是所有技能栈的“地基”,如果地基不牢,后面的技能栈学习就会“走偏”。1. 什么是AI智能体(AI Agent)?AI Agent的概念最早可以追溯到**马文·明斯基(Marvin Minsky)**在1986年出版的《心智社会》(The Society of Mind)**一书中——他认为,人类的心智是由无数个简单的、专门化的“智能体”(Agents)组成的,这些智能体之间通过协作来完成复杂的任务。但在当前的大语言模型时代,AI Agent的定义发生了巨大的变化——现在的AI Agent,通常是指:一个**基于大语言模型(LLM)或多模态大语言模型(MLLM)的、能够感知环境(Perceive)、**记忆信息(Memory)、**做出决策(Reason)、**执行行动(Act)、**反馈学习(Feedback)**的、**具有自主意识(Autonomy,这里的自主意识是指不需要人类的每一步指令就能完成任务,而非真正的通用人工智能AGI)**的智能系统。这个定义里的五个核心能力(P-R-A-F-M循环),是区分“AI Agent”和“普通的LLM应用(比如单轮/多轮对话Chatbot、文本生成器)”的唯一标准——普通的LLM应用,只有“感知(输入Prompt)、做出决策(推理生成文本)”这两个能力,没有“记忆、执行行动、反馈学习”这三个能力,更没有“自主意识”(必须人类的每一步指令)。2. 什么是AI Agent Harness(AI智能体工程化套件)?“Harness”这个词,在软件工程中的原意是“马具、挽具、控制装置、约束装置、利用装置”——比如“harness the power of water”就是“利用水的力量”,“harness a horse”就是“给马套上挽具”。在AI Agent Harness Engineering中,“AI Agent Harness”的定义是:一套完整的、模块化的、可复用的、可扩展的工具链、框架、最佳实践和规范,用来**“套住”(约束、控制、利用)LLM的“不可预测性”(Non-Deterministic)、“随机性”(Stochastic)和“幻觉性”(Hallucination),并将“不可预测的LLM推理过程转化为“可预测的、可控制的、可观测的、可测试的、可部署的、可扩展的”工业化AI智能体系统。这里的LLM的“不可预测性、随机性和幻觉性”,是AI Agent Harness Engineering存在的核心原因**——没有这些问题,我们直接用LLM API就能构建出完美的AI智能体了。3. 什么是AI Agent Harness Engineering(AI智能体工程化开发)?刚才在引言里已经给过一个定义,这里再补充一个更技术化的定义:AI Agent Harness Engineering,是一门以软件工程(Software Engineering)为方法论,以AI智能体核心技术**(LLM/MLLM推理、提示工程、工具调用、记忆管理、多Agent协作、状态管理、推理控制流)为核心对象,以AI Agent Harness(工程化套件)为核心载体,以构建“可预测、可控、可观测、可测试、可部署、可扩展、高可用、低成本”的工业化AI智能体系统为目标的交叉学科。4. 什么是P-R-A-F-M循环?P-R-A-F-M循环是AI智能体的核心工作流程,由五个步骤组成:P(Perceive,感知):感知环境信息——环境可以是数字环境(比如文本输入、网页内容、API返回结果、数据库记录、传感器数据、多模态输入:图像、音频、视频),也可以是物理环境(比如机器人的摄像头、麦克风、传感器数据);R(Reason,推理):基于感知到的环境信息、记忆中的历史信息,做出下一步的决策——这里的决策可以是“继续推理”、“调用某个工具”、“生成某个文本/多模态输出”、“结束任务”;A(Act,执行):执行推理做出的决策——比如调用工具、生成输出、修改状态;F(Feedback,反馈):收集执行后的反馈信息——比如工具调用的成功/失败结果、用户的反馈、环境的变化;M(Memory,记忆):将感知到的环境信息、推理过程、执行结果、反馈信息存储到记忆中——记忆可以是短期记忆(Short-Term Memory,STM,比如当前对话的上下文)、长期记忆(Long-Term Memory,LTM,比如用户的历史偏好、过去的工具调用记录)、工作记忆(Working Memory,WM,比如当前正在处理的任务的状态、正在调用的工具的参数)。P-R-A-F-M循环是一个迭代循环——直到任务完成,或者任务失败,循环才会停止。5. 什么是工具调用(Tool Calling/Function Calling)?工具调用(Tool Calling/Function Calling)是AI智能体的“手和脚——没有工具调用,AI智能体就只能“纸上谈兵”(只能生成文本,无法完成实际的任务)。工具调用的定义是:AI智能体通过调用预定义好的(Predefined)、可执行的(Executable)、有明确的输入输出格式(Input-Output Schema)的外部工具(External Tools)或内部工具(Internal Tools)来完成实际任务的能力。这里的外部工具可以是:Web搜索工具(比如Google Search API、Bing Search API、DuckDuckGo Search API);数据库操作工具(比如PostgreSQL、MySQL、MongoDB的SDK);文件操作工具(比如Python的os、shutil库,AWS S3的SDK);API调用工具(比如OpenWeatherMap API、Stripe API、GitHub API);代码执行工具(比如Python REPL、Jupyter Notebook、Docker容器);多模态工具(比如Stable Diffusion、DALL-E 3的生成工具,Whisper的语音转文字工具,GPT-4V的图像识别工具);机器人操作工具(比如ROS的SDK);内部工具可以是:Agent内部的状态管理工具;Agent内部的记忆管理工具;Agent内部的推理控制流工具;Agent内部的提示工程工具;工具调用的关键技术是:工具定义Schema的生成与注册;LLM/MLLM的工具选择能力;工具参数的生成与验证;工具调用的执行与错误处理;工具调用结果的总结与存储。现在的主流LLM/MLLM(比如GPT-4、GPT-4 Turbo、GPT-4o、Claude 3 Opus/Sonnet/Haiku、Gemini 1.5 Pro/Flash、Qwen 2.5 72B/32B/14B/7B、Llama 3.1 405B/70B/8B)都内置了工具调用的能力——你只需要给LLM/MLLM提供预定义好的工具Schema,LLM/MLLM就能自动选择合适的工具、生成合适的参数、验证参数的正确性。6. 什么是记忆管理(Memory Management)?记忆管理是AI智能体的“大脑”——没有记忆管理,AI智能体就只能“健忘”(每次对话都像第一次见面,无法记住用户的历史偏好、过去的工具调用记录、当前正在处理的任务的状态)。记忆管理的定义是:对AI智能体的短期记忆、长期记忆、工作记忆进行存储、检索、更新、压缩、过滤、推理的能力。现在的主流记忆管理技术是:短期记忆(STM):通常存储在内存中,或者LLM/MLLM的上下文窗口中;主要存储当前对话的上下文;检索速度很快,但存储容量有限(受限于LLM/MLLM的上下文窗口大小——比如GPT-4 Turbo的上下文窗口大小是128K tokens,Claude 3 Opus的上下文窗口大小是200K tokens);长期记忆(LTM):通常存储在向量数据库(Vector Database,比如Pinecone、Weaviate、ChromaDB、FAISS、Milvus、Qdrant)中,或者关系型数据库(比如PostgreSQL、MySQL)中;主要存储用户的历史偏好、过去的工具调用记录、长期的知识库内容;检索速度中等,但存储容量几乎无限;检索方式主要是语义检索(Semantic Search),即**将查询转换为向量,然后在向量数据库中查找与查询向量最相似的向量);工作记忆(WM):通常存储在内存中,或者状态管理工具(比如LangGraph的State、AutoGen的GroupChatManager的State)中;主要存储当前正在处理的任务的状态、正在调用的工具的参数、推理过程的中间结果;检索速度非常快,但存储容量很小;主要用于推理控制流。记忆管理的关键技术是:记忆的存储与编码(比如使用Embedding模型将文本转换为向量);记忆的检索与排序(比如语义检索+重排序);记忆的更新与压缩(比如遗忘不重要的记忆、压缩重要的记忆);记忆的过滤与推理(比如从记忆中推理出用户的隐含需求)。7. 什么是推理控制流(Reasoning Control Flow)?推理控制流是AI智能体的“神经中枢”——没有推理控制流,AI智能体就只能“漫无目的地推理、漫无目的地调用工具,容易陷入“死循环”、“幻觉调用”、“重复调用”的状态。推理控制流的定义是:对AI智能体的P-R-A-F-M循环进行控制、约束、优化的能力。现在的主流推理控制流技术是:结构化思考链(Chain-of-Thought,CoT):让LLM/MLLM先思考“为什么要这么做”,然后再生成答案或调用工具;多步思考链(Multi-Step CoT):将复杂的任务分解成多个简单的子任务,然后一步步地完成每个子任务;ReAct框架:ReAct是“Reasoning(推理)+ Acting(行动)的缩写,是Google Research在2023年提出的一种推理控制流框架——ReAct的核心思想是让LLM/MLLM交替进行“推理”和“行动”,即:先推理下一步要做什么,然后执行行动,然后收集反馈,然后再推理下一步要做什么,直到任务完成;反思框架(Reflexion):反思框架是“Reflect(反思)+ Action(行动)的缩写,是Meta AI Research在2023年提出的一种推理控制流框架——反思框架的核心思想是让LLM/MLLM在执行行动后,先反思“刚才的行动是否正确,是否有更好的方法”,然后再继续执行下一步的行动;计划-执行-反思框架(Plan-Execute-Reflect,PER):PER框架是“Plan(计划)+ Execute(执行)+ Reflect(反思)的缩写,是Anthropic Research在2023年提出的一种推理控制流框架——PER框架的核心思想是让LLM/MLLM先制定一个详细的计划,然后执行计划,然后反思计划是否正确,是否需要修改计划,然后再执行修改后的计划,直到任务完成;状态机(State Machine):状态机是一种传统的软件工程控制流技术,现在也被广泛应用于AI Agent的推理控制流中——状态机的核心思想是将AI Agent的工作流程分解成多个状态(比如“初始状态”、“感知状态”、“推理状态”、“工具调用状态”、“输出状态”、“失败状态”、“结束状态”),然后根据当前的状态和输入的信息,转换到下一个状态;有向无环图(Directed Acyclic Graph,DAG):DAG是一种传统的软件工程控制流技术,现在也被广泛应用于AI Agent的推理控制流中——DAG的核心思想是将AI Agent的工作流程分解成多个节点(比如“感知节点”、“推理节点”、“工具调用节点”、“输出节点”),然后用有向边连接这些节点,表示节点之间的依赖关系,然后按照拓扑顺序执行这些节点。8. 什么是多Agent协作(Multi-Agent Collaboration)?多Agent协作是AI智能体的“团队合作能力——没有多Agent协作,AI智能体就只能“单打独斗”(无法完成复杂的、需要多个不同角色参与的任务)。多Agent协作的定义是:多个不同角色的AI智能体(比如“产品经理Agent”、“架构师Agent”、“开发工程师Agent”、“测试工程师Agent”、“客服Agent”、“风控Agent”)通过协作、协调、沟通来完成复杂的任务的能力。现在的主流多Agent协作技术是:层级协作(Hierarchical Collaboration):层级协作是一种传统的团队合作方式,核心思想是有一个“主管Agent”(Supervisor Agent)来管理和协调多个“下属Agent”(Worker Agent)——主管Agent负责制定计划、分配任务、监督下属Agent的工作、汇总下属Agent的工作结果;下属Agent负责完成主管Agent分配的任务;对等协作(Peer-to-Peer Collaboration):对等协作是一种传统的团队合作方式,核心思想是多个Agent之间是平等的,没有主管Agent和下属Agent的区别——多个Agent之间通过共享记忆、共享状态、共享工具来协作完成任务;角色协作(Role-Based Collaboration):角色协作是一种传统的团队合作方式,核心思想是给每个Agent分配一个明确的角色(比如“产品经理Agent”、“架构师Agent”),然后每个Agent根据自己的角色来完成任务;协商协作(Negotiation-Based Collaboration):协商协作是一种传统的团队合作方式,核心思想是多个Agent之间通过协商、谈判来达成一致的意见,然后协作完成任务;投票协作(Voting-Based Collaboration):投票协作是一种传统的团队合作方式,核心思想是多个Agent之间通过投票来决定下一步的行动,然后协作完成任务。问题背景现在的大语言模型时代的AI Agent的问题背景,可以从三个维度来分析:1. LLM/MLLM的发展维度从2022年11月OpenAI发布ChatGPT以来,LLM/MLLM的发展速度非常快——从GPT-3.5到GPT-4,到GPT-4 Turbo,到GPT-4o,到Claude 3,到Gemini 1.5,到Qwen 2.5,到Llama 3.1,LLM/MLLM的推理能力、工具调用能力、多模态能力、上下文窗口大小、成本都有了巨大的提升**。但是,LLM/MLLM仍然存在三个核心问题:不可预测性(Non-Deterministic):即使你给LLM/MLLM提供完全相同的输入,LLM/MLLM也可能生成完全不同的输出;随机性(Stochastic):LLM/MLLM的输出是基于概率的,你可以通过设置“温度(Temperature)”、“Top-p”、“Top-k”等参数来控制输出的随机性,但无法完全消除随机性;幻觉性(Hallucination):LLM/MLLM可能会生成看似合理但实际上是错误的、不存在的信息;这三个核心问题,是纯靠“调Prompt、堆文档”的“Prompt炼金术师”无法解决的——必须用**工程化的思维和工具链来约束、控制、利用这些问题。2. 企业级需求维度现在的企业对AI Agent的需求,已经从**“有一个Agent就行”(PoC阶段)发展到了“Agent要好用、要稳定、要便宜、要可观测、要可扩展、要高可用”**(工业化阶段)。具体来说,企业对AI Agent的核心需求是:准确性(Accuracy):Agent的输出要准确,不能有幻觉;稳定性(Stability):Agent的工作流程要稳定,不能经常崩溃,不能经常陷入死循环;可观测性(Observability):要能够监控Agent的工作流程、状态、Token消耗、成本、错误率;可测试性(Testability):要能够自动化测试Agent的边界场景、功能场景、性能场景;可部署性(Deployability):要能够快速、方便地部署Agent到生产环境;可扩展性(Scalability):要能够快速、方便地扩展Agent的功能、性能、容量;高可用性(High Availability,HA):Agent要能够24小时不间断运行,即使某个组件出现故障,Agent也能够继续运行;低成本(Low Cost):Agent的Token消耗、工具API消耗、服务器成本要低;这八个核心需求,是纯靠“调Prompt、堆文档”的“Prompt炼金术师”无法满足的——必须用**工程化的思维和工具链来满足这些需求。3. 技术发展维度现在的AI Agent技术,已经从**“单一的单Agent框架”(比如LangChain的AgentExecutor)发展到了“完整的工程化套件”**(比如LangChain的LangGraph、AutoGen的Multi-Agent Framework、CrewAI的Crew、OpenAI的Assistants API v2、Anthropic的Claude Tools、Microsoft的Semantic Kernel)。但是,现在的AI Agent技术仍然处于早期阶段——没有一个统一的标准,没有一个统一的框架,没有一个统一的工具链,每个框架和工具都有自己的优缺点,每个企业都在自己摸索。问题描述现在的AI Agent Harness Engineering的核心问题是:技能栈不清晰:很多开发者不知道AI Agent Harness Engineering需要什么样的技能栈,不知道从哪里开始学习;技术选型困难:现在的框架和工具太多了,每个框架和工具都有自己的优缺点,很多开发者不知道在不同场景下选择最合适的技术栈;工程化能力不足:很多开发者只会“调Prompt、堆文档”,不会用软件工程的核心原则(模块化、可复用、可测试、可观测、可部署、可扩展、高可用、低成本)来构建AI Agent系统;最佳实践缺失:很多开发者不知道AI Agent Harness Engineering的最佳实践,不知道如何避免常见的陷阱;这四个核心问题,是阻碍AI Agent从“实验品”走向“工业化生产”的主要原因。问题解决本文的核心目标就是解决这四个核心问题——通过系统梳理AI Agent Harness Engineering的完整技能栈,对比不同技术的优劣势,提供一个实战案例,提供最佳实践和避坑指南,帮助开发者快速、方便地构建工业化的AI Agent系统。边界与外延1. 边界本文的边界是:本文不讨论AGI(通用人工智能)——本文只讨论基于当前的LLM/MLLM的AI智能体,即“弱人工智能”(Narrow AI);本文不讨论纯靠“调Prompt、堆文档”的“Prompt炼金术师”的方法——本文只讨论工程化的AI Agent Harness Engineering的方法;本文不讨论所有的编程语言、框架与工具——本文只讨论主流的、成熟的、有大量企业级应用案例的编程语言、框架与工具;本文不讨论物理机器人的AI Agent——本文只讨论数字环境下的AI Agent;2. 外延本文的外延是:本文可以延伸到物理机器人的AI Agent——本文讨论的技能栈,大部分也适用于物理机器人的AI Agent;本文可以延伸到微调LLM/MLLM的AI Agent——本文讨论的技能栈,大部分也适用于微调LLM/MLLM的AI Agent;本文可以延伸到开源LLM/MLLM的AI Agent——本文讨论的技能栈,大部分也适用于开源LLM/MLLM的AI Agent;概念结构与核心要素组成AI Agent Harness Engineering的概念结构与核心要素组成可以用三层架构来表示:底层:基础设施层(Infrastructure Layer)**:核心要素:**编程语言、云服务(AWS、Azure、GCP、阿里云、腾讯云、华为云)、向量数据库(Pinecone、Weaviate、ChromaDB、FAISS、Milvus、Qdrant)、关系型数据库(PostgreSQL、MySQL)、NoSQL数据库(MongoDB、Redis)、容器化工具(Docker、Podman)、编排工具(Kubernetes、Docker Swarm)、CI/CD工具(GitHub Actions、GitLab CI/CD、Jenkins、CircleCI);中间层:核心技术层(Core Technology Layer)**:核心要素:**LLM/MLLM API(OpenAI API、Anthropic API、Google Gemini API、阿里云通义千问API、腾讯云混元API、华为云盘古API、开源LLM/MLLM(Qwen 2.5、Llama 3.1、Mistral 7B、Zephyr 7B)、提示工程技术(结构化思考链、多步思考链、ReAct、反思框架、PER框架)、工具调用技术、记忆管理技术、推理控制流技术、多Agent协作技术、状态管理技术;上层:应用层(Application Layer)**:核心要素:核心框架(单一Agent框架、多Agent协作框架、Agent推理控制流框架、跨语言Agent Runtime)、上层工具链(提示工程工具、记忆管理工具、工具调用工具、多模态工具、部署工具、监控与可观测性工具、测试工具)、最佳实践与规范。概念之间的关系1. 概念核心属性维度对比 markdown 表格为了帮助读者更好地理解AI Agent Harness Engineering的核心概念之间的关系,我们将AI智能体、普通的LLM应用、Prompt炼金术师的方法、AI Agent Harness Engineering的方法这四个概念进行核心属性维度对比:核心属性维度AI智能体普通的LLM应用Prompt炼金术师的方法AI Agent Harness Engineering的方法核心能力P-R-A-F-M循环(感知、推理、执行、反馈、记忆)感知、推理调Prompt、堆文档工程化思维+核心技术+工程化套件自主意识有(不需要人类的每一步指令)无(必须人类的每一步指令)无(Prompt怎么写,Agent就怎么做)有(不需要人类的每一步指令)工具调用能力有无(部分有,但不是核心能力)有,但工程化程度低有,工程化程度高记忆管理能力有有(只有短期记忆,存储在上下文窗口中)有,但工程化程度低有,工程化程度高推理控制流能力有无有,但主要是结构化思考链,工程化程度低有,工程化程度高多Agent协作能力可选(单Agent或多Agent)无无可选(单Agent或多Agent),工程化程度高可预测性中(需要工程化的工具链来约束)中(需要Prompt写得好的话,可预测性高)低高(工程化的工具链来约束)稳定性中(需要工程化的工具链来约束)高(不需要调用工具的话,稳定性高)低高(工程化的工具链来约束)可观测性中(需要工程化的工具链来监控)低无高(工程化的工具链来监控)可测试性中(需要工程化的工具链来测试)中(不需要调用工具的话,可测试性高)无高(工程化的工具链来测试)可部署性中(需要工程化的工具链来部署)高(直接调用LLM API就行)低高(工程化的工具链来部署)可扩展性中(需要工程化的工具链来扩展)低(只能通过增加Prompt来扩展,但Prompt太长的话,上下文窗口不够用)低高(工程化的工具链来扩展)高可用性中(需要工程化的工具链来保证)中(依赖于LLM API的可用性)低高(工程化的工具链来保证)低成本中(需要工程化的工具链来控制)低(直接调用LLM API就行)高(需要大量的人工调Prompt)低(工程化的工具链来控制)适用场景复杂的、需要多个步骤的、需要调用工具的、需要自主意识的任务简单的、不需要调用工具的、不需要自主意识的任务PoC阶段的简单任务工业化阶段的复杂任务2. 概念联系的ER 实体关系 mermaid架构图为了帮助读者更好地理解AI Agent Harness Engineering的核心概念之间的关系,我们用ER实体关系图来表示:构建在核心是上层是包含包含包含包含构建满足基于使用基于使用基于使用使用AI_Agent_Harness_Engineeringstringidstringname

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2504359.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…