大模型核心技术概述:Token、Prompt、Tool与Agent的关系详解

news2026/3/31 16:03:47
你是不是经常听人聊AI时蹦出这些词LLM、Token、Context、Prompt、Tool、MCP、Agent听着好像都认识但真要问“这到底是啥”又有点懵。今天把这些词一个个拆开揉碎讲清楚它们到底是啥、有啥用、又是怎么串起来的。LLM(大模型)LLM 概述LLM的来历2017年Transformer架构诞生OpenAI将其发扬光大历程从GPT-3.5破圈到GPT-4飞跃再到百家争鸣用途从聊天起步正在成为一切数字交互的“万能接口”。LLM 是什么LLM大语言模型通俗来讲就是一个极其擅长“文字接龙”的超级智能程序。你可以把它想象成一个玩接龙游戏的高手它只做一件事给你一句话它根据这句话猜出下一个最可能出现的字或词。它一个字一个字地“吐”出来它先猜第一个字然后把这个字加回原来的句子里再猜下一个字。就这样一个字一个字地往外蹦直到它觉得一句话说完整了。它不懂文字只懂数字在它内部所有的文字都会被转换成它认识的数字也就是“Token”运算完再把数字变回文字告诉你。举个例子你问它“这篇文章怎么样”它不会一次性想好“特别棒”三个字。它的内部流程是先猜出第一个字“特”然后把“特”加回问题变成“这个视频怎么样特”再猜出“别”再把“别”加进去变成“这个视频怎么样特别”再猜出“棒”最后发现话说完了输出“特别棒”。你平时用的像GPT、Claude、豆包、文心一言这些产品底层都是这种“接龙”模型。它们之所以显得“聪明”是因为它们用海量的数据训练过猜下一个字的“经验”极其丰富所以接出来的话看起来像是有逻辑、有思考一样。简单理解就是大模型就像一个读过全世界所有书、但只会玩“文字接龙”的超级学霸——它每时每刻只关心“下一个字该接什么”但因为接了几万亿次它的“语感”好到让人觉得它真的在思考当我们给它装上“工具”和“长记忆”后它就从只会玩接龙游戏的玩家变成了能帮忙干活、做决策的搭档。Token(大模型处理数据的最基本单元)Token 通俗来讲就是大模型“眼中的文字”——它是模型处理文本时最小的“积木块”。它不是“字”也不是“词”而是“模型自己定义的积木”我们看文字是一个字一个字看的。但大模型看文字是先把一段话切成一小块一小块每一块就叫一个Token。有时候一个 Token 就是一个汉字比如“我”“你”“好”。有时候一个 Token 是一个词比如“苹果”“电脑”。但更多时候一个词会被切成多个 Token。比如“衣服撑”这个词在大模型眼里可能是两个 Token“衣服”和“撑”。再比如“Helpful”这个英文单词可能会被切成“Help”和“ful”两个 Token。一句话总结Token 是模型自己学会的一套“切分规则”每个 Token 就是它一次能“看”或“吐”的最小单位。国内可查 token 工具: https://console.volcengine.com/ark/region:arkcn-beijing/tokenCalculatorOpenAI 分词器platform.openai.com/tokenizer为什么要有 Token——因为模型只认数字大模型内部全是数学运算它不认识“你”“我”“他”只认识数字。所以需要有一个“翻译官”把文字变成数字这个数字就是Token ID。流程是这样的切分把你说的话切成一个个 Token。映射每个 Token 对应一个唯一的编号Token ID。运算模型只处理这些数字。还原模型吐出一个数字Token ID再把它变回文字。举个例子你问“这篇文章到底怎么样”它可能被切成 3 个 Token“这篇文章” “到底” “怎么样”。每个 Token 都有一个数字编号模型看到的其实是[1234, 5678, 9011,]这样一串数字。Token 和字数有什么关系这是一个很实用的知识点英文平均 1 个 Token ≈ 0.75 个单词。比如“hello”是一个 Token“helpful”是两个 Token。中文平均 1 个 Token ≈ 1.5 到 2 个汉字。一个常见汉字通常是一个 Token但生僻字可能需要 2~3 个 Token。为什么你要关心这个因为所有大模型产品都是按Token 数量计费的。你提问时消耗 Token模型回答时也消耗 Token。一段 1000 字的中文大概会消耗 1500~2000 个 Token。Token 决定了“它能记住多少”——上下文窗口每个大模型都有一个“上下文窗口”Context Window它的大小就是用Token 数量衡量的。比如一个模型说“上下文窗口是 100 万 Token”意思就是它一次最多能处理 100 万个 Token 的内容。100 万 Token 大约相当于 150 万个汉字或者《水浒传》整本那么多。你每次和大模型聊天它之所以能“记住”前面说的话就是因为程序会把整个对话历史用 Token 表示一直塞给它。如果对话太长超出了窗口最早的对话就会被“挤出去”模型就“忘”了。用一张图帮你记住 Token中间那一步“转成数字”之后模型处理的就不再是“文字”而是“数字积木”。它所有的“思考”其实都是在计算“下一个数字积木应该是什么”。Token 就是大模型“看”和“写”文字时使用的最小积木块。它既不是字也不是词而是模型自己学会的一种切分方式。你用大模型花的每一分钱、它能记住的每一句话都是用 Token 来衡量的。下次你再看到“这个模型有 100 万 Token 上下文”你就知道它能一次吞下整本《水浒传》然后跟你聊里面的任何细节。Context: (大模型每次处理任务时接收到的信息总和)Context 通俗来讲就是大模型每次处理任务时能“看到”的所有信息的总和。你可以把它想象成一个临时工作台你问模型一个问题这个问题会放到工作台上。你们之前的聊天记录也会放到工作台上。开发者在后台给它设定的“人设”和“规则”System Prompt也会摆在工作台上。甚至模型自己刚才“吐”出来的每一个字也会被立刻放回工作台上供它预测下一个字时参考。如果模型被允许调用工具比如查天气、算数学那么可用的工具列表也放在工作台上。总之模型每一次“思考”下一个字该接什么时工作台上的所有内容就是它的 Context。为什么要有 Context因为大模型本身没有记忆。它不是一个有意识的人而是一个数学函数——你给它输入它给你输出。为了让模型“记住”你刚才说过的话程序必须把对话历史也塞进当前的输入里。这个“被塞进来的对话历史”就是 Context 中最重要的部分之一。举个例子你说“我叫小明”模型回答“你好小明”。然后你问“我叫什么”如果没有 Context模型只看到“我叫什么”这五个字它只能瞎猜。但有了 Context程序会把上一轮对话“我叫小明 / 你好小明”也加到输入里模型看到的是完整的对话记录所以它知道你叫小明。Context 里具体有什么根据你提供的课程原文Context 包含但不限于用户问题User Prompt——你当前输入的消息。对话历史——之前你和模型的若干轮问答。模型正在输出的每一个 token——每生成一个字就追加到 Context 里用于预测下一个字。System Prompt——开发者在后台设置的人设或规则比如“你是一个耐心的数学老师”。工具列表——模型可以调用的外部能力天气 API、计算器等。所以 Context 是一个动态累积的信息集合每次模型要输出一个新字时它都会基于这个集合做计算。Context Window工作台的大小Context 能放多少东西是有限制的这个限制就叫Context Window上下文窗口。它代表模型一次能处理的最大 Token 数量。早期模型Context Window 只有几千 Token聊几句就“失忆”了最早的对话被挤出去。现在主流模型Context Window 可以达到100 万 Token甚至更多。100 万 Token 大约相当于 150 万个汉字能装下整本的《水浒传》。注意Context Window 不是硬盘而是“工作台内存”。如果对话太长超出窗口模型就会忘记窗口之外的内容。所以当你和模型聊了很久之后它突然“不记得”开头说了什么很可能就是因为 Context Window 满了早期的对话被丢弃了。Context window: (大模型的 Context 最多能够存储的 Token 量)Context Window 通俗来讲就是大模型的 Context上下文最多能装下多少 Token。你可以把它理解为一块工作台的大小——工作台上能同时摆放多少“信息积木”Token。为什么要有 Context Window因为大模型在处理任务时需要把所有的相关信息对话历史、用户问题、系统指令、工具列表等一次性放进Context里然后才能开始做“文字接龙”。但模型的计算能力是有限的它不能无限地往 Context 里塞东西。Context Window 就是这个“能塞多少”的上限单位是 Token。具体数值意味着什么早期的大模型如 GPT-3 初代Context Window 只有2048 个 Token左右。大约相当于 3000 个汉字。聊几句就满了最早的对话会被“挤出去”模型就会失忆。现在的主流模型Context Window 已经非常大。GPT-4部分版本128K Token约 20 万汉字GPT-4o128K 或更高Claude 3.5 Sonnet200K Token约 30 万汉字Gemini 1.5 Pro200 万 Token惊人约 300 万汉字能一次装下《三体》三部曲国产模型如 DeepSeek-V3128K Token或更高举个例子100 万 Token 大约相当于 150 万个汉字相当于整本《鹿鼎记》。这意味着你可以把一整本小说丢给模型让它基于全书内容回答你的问题而不会“忘记”开头。Context Window 不是越大越好吗越大越好但有两个代价计算成本Context Window 越大模型处理一次请求需要做的计算量就越大大致是平方级增长。所以超大窗口的模型通常更贵、更慢。注意力稀释当 Context 里有 100 万 Token 时模型要从中找出最相关的信息来预测下一个字就像在图书馆里找一句话——它可能会“走神”忽略掉真正重要的细节。不过现在的模型架构如注意力机制改进正在缓解这个问题。一个形象的类比想象你有一个白板每次和模型对话你都会把对话历史、问题、系统提示都写在白板上。Context Window 就是这块白板的面积。面积小比如几千 Token写几个句子就满了最早的句子只能擦掉。面积大比如 100 万 Token白板有一面墙那么大你可以写上整本百科全书模型每次都能看到全部内容。对你的实际影响长文档处理如果你需要让模型分析一本几百页的书就要确保模型的 Context Window 能装下整本书或者用 RAG 技术分段处理。多轮对话Context Window 决定了你能和模型聊多久而不让它“忘记”开头。窗口越大对话可以越长。费用按 Token 计费的模型虽然 Context Window 大但如果你每次真的塞满 100 万 Token那一次的请求费用会很高。Context Window 就是大模型“工作台”的大小——它决定了模型一次最多能“看到”多少 Token 的信息。窗口越大能记住的对话越多能处理的文档越长但计算成本和费用也会相应增加。现在当你看到“支持 200K 上下文”时你就知道这块模型的白板可以一次写下半本《三体》了。Prompt: (用户或系统当前给大模型下达的具体指令或问题)Prompt 通俗来讲就是你或系统当前对大模型说的那一句话——它代表了一个具体的指令或问题。想象你有一个能力超强但需要明确指令的助手。你开口说的第一句话就是 Prompt。比如“今天天气怎么样”“帮我写一首关于秋天的诗。”“把下面这段话翻译成英文。”Prompt 的两种类型根据来源和用途Prompt 分为两种User Prompt用户提示词由你——使用者——直接输入。代表你当前的具体需求。例如你在对话框里打的“3 5 等于几”System Prompt系统提示词由开发者在后台预先设置你作为用户看不到。它定义了大模型的“人设”或“行为规则”会一直潜在地影响模型对 User Prompt 的回应。例如“你是一个耐心的数学老师不要直接给答案要引导学生思考。”当模型收到一次请求时它实际看到的是System Prompt User Prompt 对话历史等组合而成的 Context。但最核心、最直接的任务描述就是 User Prompt。Prompt 为什么重要因为大模型本质上是“文字接龙机器”它根据当前看到的全部文字来预测下一个字。Prompt 就是给它定的“方向”。如果 Prompt 模糊不清比如只说“帮我写点东西”模型可能写诗、写散文、写代码……你无法控制。但如果 Prompt 清晰具体比如“帮我写一封请假的邮件主题是感冒语气正式”模型就能给出你期望的结果。所以有一门“学问”叫Prompt Engineering提示词工程——研究如何把话说清楚让模型精准理解你的意图。不过随着模型越来越聪明现在对 Prompt 精细度的要求已经大大降低了。一个直观的例子没有 System Prompt只有 User Prompt你问“3 5 等于几” → 模型可能直接回答“8”。加了 System Prompt后台设置“你是一个数学老师要引导学生思考。”你问同样的 User Prompt“3 5 等于几” → 模型会回答“我们可以这样想你手里有 3 个苹果又拿来 5 个一共多少个呢”看到了吗同一个 User Prompt因为 System Prompt 不同回答完全不同。而 User Prompt 本身就是你每次发起对话时那句最直接的指令。Prompt 就是大模型当前收到的具体任务或问题。User Prompt 是你给的System Prompt 是开发者预设的规则没有 Prompt模型就不知道要做什么。当你和 ChatGPT 说话时你输入的那句话——就是 Prompt。Tool: (大模型用来感知和影响外部环境的函数)Tool 通俗来讲就是大模型用来感知和影响外部世界的“函数”——它让只会做文字接龙的模型能够真正动手做事。为什么需要 Tool大模型有一个致命弱点它无法感知外部环境。你问它“今天上海的天气怎么样”它会老实回答“抱歉我无法获取实时天气信息。”因为它的知识只来自训练时的数据它不会真的去查天气预报网站也不会帮你发邮件、订机票。但如果我们给模型配上一套Tool工具它就能突破这个限制。Tool 本质上是一个函数——你给它输入它执行操作然后返回结果。比如天气查询工具输入城市和日期输出天气信息。计算器工具输入数学表达式输出计算结果。发送邮件工具输入收件人、主题、正文执行发送并返回成功/失败。有了这些工具大模型就不再是一个“只会说话的鹦鹉”而是一个能动手干活的助手。Tool 是如何工作的整个流程需要四个角色配合用户、大模型、工具、平台平台是一段负责传话的代码。用户提问“上海今天天气怎么样”平台把问题和可用工具列表比如“天气查询工具”一起发给大模型。大模型“思考”用户想知道天气我没有实时数据但有个天气工具可用。于是它输出一段指令不是直接答案比如“调用天气工具参数城市上海日期今天”。平台拿到指令后真的去执行调用天气工具对应的函数拿到结果比如“晴天15-25度”。平台把结果返回给大模型。大模型把结果整理成一句人话“今天上海天气不错晴天温度15到25度。”然后输出给平台平台再转给你。关键点大模型只负责生成调用工具的指令一段特殊格式的文本。真正去执行工具的是平台代码。大模型不能自己打开网页、调API它只能“说”出自己想调哪个工具、传什么参数。Tool 的典型例子天气查询输入城市 → 输出天气计算器输入“3.5 * 7.2” → 输出结果搜索引擎输入关键词 → 输出相关网页摘要数据库查询输入SQL → 输出查询结果发送消息输入接收者和内容 → 输出发送状态控制智能家居输入“关灯” → 输出执行结果Tool 让大模型从“嘴炮”变成“实干家”没有 Tool 的模型只能聊天、写文章、编故事。有 Tool 的模型可以查天气、订票、发邮件、控制设备、分析数据……Tool 的本质就是给大模型提供一套可以调用的外部能力让它能够感知和影响外部环境。而当多个 Tool 组合起来配合模型自主规划调用顺序就形成了Agent智能体——能够自主完成复杂任务。Tool 是大模型伸向外界的一只手——它是一个函数模型通过“说出”调用指令让平台去执行从而获得实时信息或完成实际操作。没有 Tool模型只能纸上谈兵有了 Tool模型就能改变世界。现在你明白了当你问 Siri“明天几点日出”时背后就是大模型调用了天气/天文工具当你让 ChatGPT 帮你算一道微积分它可能调用了计算器工具。这就是 Tool 的魅力。MCP: (统一了工具接入格式的标准协议)MCP 的全称是 Model Context Protocol模型上下文协议。通俗来讲它就是一套统一的标准规定了“工具应该长什么样、怎么被大模型调用”。只要一个工具按照 MCP 标准开发它就能被所有支持 MCP 的大模型平台直接使用一次开发到处运行。为什么需要 MCP回顾一下 Tool 的调用流程大模型要使用一个工具比如天气查询平台需要知道这个工具叫什么、需要哪些参数、怎么去调用它。但问题在于每个大模型平台的接入规范都不一样。你要让一个工具支持 ChatGPT就得按照 OpenAI 的规范写一套接入代码。要让同一个工具支持 Claude又得按 Anthropic 的规范再写一套。要让工具支持 Gemini还得按 Google 的规范再写一套。同一个工具写三遍代码——这就是重复劳动非常低效。MCP 做了什么MCP 就像工具界的 Type-C 接口。在 Type-C 普及之前手机充电口五花八门Micro-USB、Lightning、各种方形口你换一部手机就得换一根线。Type-C 统一了标准一根线能充所有手机。MCP 做的也是同样的事它定义了一套统一的工具接入格式。工具开发者只需要按照 MCP 规范开发一次然后任何支持 MCP 的大模型平台ChatGPT、Claude、Gemini……都可以直接调用这个工具无需为每个平台单独适配。MCP 解决了什么问题对工具开发者一次编码全网通用。大大降低了重复开发成本。对平台方只要支持 MCP就能立刻接入海量现成的工具丰富自己的生态。对用户大模型能调用的工具会越来越多体验越来越好。例如场景没有 MCP有 MCP充电线每个品牌一种接口换手机就得换线Type-C 统一接口一根线充所有工具接入每个平台一套规范工具要写多份代码一套 MCP 规范写一次到处用MCP 是统一工具接入格式的标准协议。它让工具开发者只需写一次代码就能被所有支持 MCP 的大模型平台使用就像 Type-C 让一根充电线能充所有手机一样。如果你想深入了解 MCP 的技术细节比如协议的具体格式、消息类型、传输方式等可以查阅官方文档。但作为概念理解记住“Type-C 接口”这个比喻就够了。MCP 官方文档What is the Model Context Protocol (MCP)? - Model Context ProtocolAgent: (能自主规划和调用工具、直至解决用户问题的程序)Agent 通俗来讲就是一个能够自主规划步骤、反复调用工具直到帮你把问题彻底解决的程序。你可以把它想象成一个聪明的数字员工——你给它一个目标它会自己思考怎么拆解任务、分几步完成、需要用到哪些工具然后一步步去执行最后给你结果。Agent 和普通大模型有什么区别普通大模型你问一句它答一句。遇到需要查天气、算数学、发邮件的事它只能说“我做不到”。即使给了它工具也需要你在对话中手动引导它一步步做。Agent你给一个复杂的目标比如“帮我规划一次去北京的三天旅行”它会自己把任务拆成“查机票、查酒店、查景点、算预算、排行程……”然后自动调用相应的工具一步步完成所有子任务最后给你一个完整的旅行方案。一句话大模型是“嘴”Agent 是“嘴 手 大脑”。一个具体的例子假设你有一个 Agent它可用的工具有天气查询工具、定位工具、店铺搜索工具。你给它一个任务“今天上海天气怎么样如果下雨帮我找找附近卖雨伞的店。”Agent 的“内心活动”如下思考用户问天气我得先知道位置用户已经说了“上海”不需要定位。直接调天气工具。行动调用天气工具参数上海今天 → 得到结果“中雨”。观察下雨了用户还要找雨伞店。思考需要店铺搜索工具参数雨伞位置上海。行动调用店铺工具 → 得到“南京路步行街有3家便利店卖雨伞”。思考所有目标都完成了可以整理答案了。回答“今天上海中雨建议带伞。附近南京路步行街有便利店可以买到雨伞。”整个过程Agent 不需要你一步步指挥它“先查天气……再查店铺……”。它自己会规划、会判断、会决定下一步做什么直到任务完成。Agent 的核心能力自主规划把一个大目标拆成若干小步骤决定先做什么、后做什么。工具调用在需要的时候自动选择合适的工具并传入正确的参数。循环执行调用工具 → 获取结果 → 分析结果 → 决定下一步 → 再调用工具……直到任务完成。容错与调整如果某一步失败比如天气工具无响应Agent 可以换一种方式或告诉用户问题出在哪里。常见的 Agent 例子编程助手如 Cursor、Claude Code你说“帮我写一个登录页面”它会自己创建文件、写代码、运行测试、修复 bug。自动化办公你说“把这封邮件的附件整理成表格”它会下载附件、解析内容、生成 Excel、回复邮件。智能家居管家你说“我睡觉了”它会关灯、锁门、调空调、设闹钟。旅行规划你说“下周去杭州玩两天”它会查高铁票、订酒店、推荐景点、排行程、算总预算。Agent 和普通大模型 工具的区别普通大模型 工具你问“今天天气怎么样”它可能直接调工具给你结果。但如果你问一个多步任务它只会回答“我需要先查天气再查店铺你要我一步步做吗”——它不会自己循环。Agent内置了循环机制和规划能力。它会在内部不断重复“思考→行动→观察”这个循环直到用户的目标达成。Agent 是一个会自己动脑子拆解任务、会自己动手调用工具、会一步步循环执行直到问题彻底解决的程序。它不像普通大模型那样需要你每一步都指挥而是像一个真正的数字员工——你给目标它给结果。现在应该明白了当你听说“AI Agent 是下一个风口”其实就是说未来的 AI 不再只是聊天机器人而是能独立完成工作的智能体。Agent Skill: (给 Agent 看的说明文档)Agent Skill 通俗来讲就是一份提前写好的说明文档——专门给 Agent 看的告诉它“遇到这类任务时应该按什么规则、什么步骤去做”。你可以把它想象成一份员工手册或岗位操作指南。你不需要每次给 Agent 布置任务时都啰嗦一遍规则只要把规则写进 Skill 里Agent 就会自动遵守。为什么需要 Agent Skill假设你想让 Agent 做你的“出门小助手”每次出门前提醒你带什么东西。你的习惯很具体下雨带伞、刮风戴帽子、雾霾戴口罩、风大穿防风外套而且手机必带。你还希望它回答时别啰嗦按固定格式先一句总结再列一个清单。如果没有 Agent Skill你每次出门前都要输入一大段提示词“请帮我查天气如果下雨就提醒带伞刮风提醒戴帽子雾霾提醒戴口罩风大提醒穿防风外套而且无论什么天气都要提醒带手机。回答格式先总结天气然后列出需要带的物品清单。”太反人类了有了 Agent Skill你只需要把这些规则提前写成一份文档告诉 Agent“以后出门提醒就用这个 Skill。”之后你只需要说“我要出门了”Agent 就会自动按规则执行。Agent Skill 长什么样Agent Skill 本质上是一个Markdown 文档分为两层元数据层文档的“身份证”name这个 Skill 的名字比如“go_out_checklist”description简短描述说明这个 Skill 是做什么的指令层具体怎么做目标要完成什么任务执行步骤先做什么、后做什么比如先调天气工具再根据天气判断物品判断规则什么天气对应什么物品下雨→伞刮风→帽子……输出格式必须按什么结构输出总结 清单示例给一个完整的例子让 Agent 更明白示例Agent Skill 文件出行必备清单助手--- name: go_out_checklist description: 根据用户目的地的天气情况智能生成出行必备物品清单。 --- # 出行必备清单助手 ## 目标 你的任务是查询用户指定目的地的天气情况并根据天气状况为用户提供一份精准的出行必备物品清单。 ## 执行步骤 1. **获取天气信息**首先调用 weather_query 工具查询用户指定地点的实时天气或预报。 2. **分析天气状况**读取工具返回的结果重点关注天气现象如晴、雨、雪、大风和温度。 3. **匹配物品规则**根据“判断规则”部分确定需要推荐的物品。 4. **生成最终回答**按照“输出格式”的要求整合天气信息和物品清单输出最终结果。 ## 判断规则 请严格根据以下天气现象匹配对应的物品 - **下雨/阵雨/暴雨**必须推荐 [雨伞/雨衣]。 - **大风/强风**必须推荐 [防风外套/帽子]。 - **晴天/紫外线强**必须推荐 [防晒霜/墨镜/遮阳帽]。 - **气温低于 10°C**必须推荐 [厚外套/围巾]。 - **气温高于 30°C**必须推荐 [小风扇/补水喷雾]。 - **其他情况**推荐 [舒适的鞋子/充电宝]。 注意如果同时满足多个条件例如既下雨又低温请合并推荐物品。 ## 输出格式 请严格按照以下 Markdown 格式输出 ### [地点] 出行建议 **天气概况**[天气状况]气温 [温度] ** 必备清单** - [物品1] - [物品2] - [物品3] ## 示例 **用户输入** 我明天要去杭州出差需要带什么 **工具调用** weather_query(location杭州) - 返回{weather: 小雨, temp: 15°C} **最终回答** ### 杭州 出行建议 **天气概况**小雨气温 15°C ** 必备清单** - 雨伞因为下雨 - 厚外套因为气温较低 - 舒适的鞋子Agent Skill 和 System Prompt 的区别System Prompt全局的、固定的人设或规则比如“你是一个耐心的数学老师”。一般由开发者设置所有对话都生效。Agent Skill针对特定任务场景的详细操作手册可以由用户或开发者编写按需加载。一个 Agent 可以有多个 Skill对应不同的能力出门提醒、邮件写作、数据分析……。Agent Skill 就是给 Agent 看的“说明书”或“操作手册”——你提前把规则、步骤、格式都写清楚Agent 遇到相关任务时就会自动照着做省去你每次重复输入的麻烦。现在你明白了Agent 是“能干活的员工”Agent Skill 就是“教这个员工怎么干活的培训手册”。总结英文术语中文名称核心定义LLM大模型大模型本身Large Language ModelToken词元/令牌大模型处理数据的最基本单元Context上下文大模型每次处理任务时接收到的信息总和Context Window上下文窗口大模型的 Context 最多能够存储的 Token 量Prompt提示词用户或系统当前给大模型下达的具体指令或问题Tool工具大模型用来感知和影响外部环境的函数MCP模型上下文协议统一了工具接入格式的标准协议Agent智能体能自主规划和调用工具、直至解决用户问题的程序Agent Skill智能体技能给 Agent 看的说明文档简单说明LLM (大模型)那个超级聪明的“大脑”。Token大脑认识的最小“积木块”文字切分后的单位。Context (上下文)大脑此刻“脑子里装着的所有信息”包括你的提问和之前的聊天记录。Context Window (上下文窗口)大脑的“短期记忆容量上限”最多能装多少 Token。Prompt (提示词)你给大脑出的“题目”或“指令”。Tool (工具)大脑的“手和眼”比如联网搜索、计算器帮它看世界和做事情。MCP工具的“通用插座标准”让所有工具都能插在大脑上用。Agent (智能体)一个有“大脑”且有“手脚”的完整办事员它不只聊天还能帮你把事办成。Agent Skill (技能)办事员手里的“操作说明书”告诉它怎么用工具。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2463371.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…