【AI面试临阵磨枪】详细解释 LLM、Token、Context、Prompt、Tool、MCP、Agent、Agent Skill 这些名词
一、 知识储备1. LLM (Large Language Model) - 大语言模型本质基于 Transformer 架构在海量文本上进行预训练的概率预测引擎。面试深挖重点在于“预测下一个 Token”的本质。它并不真正“理解”含义而是根据统计概率生成回复。目前的趋势是从单一文本模型向多模态 (Multimodal)演进。2. Token - 权标 / 令牌本质模型处理信息的最小单位。详细机制文本进入模型前要经过Tokenization。一个单词可能被切分为多个 Token如apple是 1 个但复杂的词可能是 2-3 个。工程意义决定了成本按 Token 计费和速度推理延迟取决于生成的 Token 数。3. Context - 上下文本质模型在生成当前回答时能“看到”的所有信息。详细机制包括了历史对话、系统指令System Prompt和检索到的参考资料RAG。物理限制受限于Context Window。超过限制会导致模型“失忆”工程上常用KV Cache技术来加速长上下文的推理。4. Prompt - 提示词本质引导模型输出的指令输入。详细机制它是模型的“编程语言”。分为System Prompt定义角色和规则和User Prompt具体指令。技巧点优秀的 Prompt 包含角色 (Role)、背景 (Context)、任务 (Task) 和约束 (Constraint)。5. Tool / Function Call - 工具 / 函数调用本质模型连接现实世界的接口。详细机制模型本身不能上网或查数据库但它可以通过输出特定格式如 JSON来“表达”它想用什么工具。开发者收到这个信号后代为执行并将结果反馈给模型。代码示例// 模型返回的 Tool Call 信号 { function: get_weather, parameters: { location: Beijing } }6. MCP (Model Context Protocol) - 模型上下文协议本质由 Anthropic 提出的标准化连接协议。详细机制以前每个应用连接数据源如 GitHub, Google Drive都要写一套代码MCP 让数据源和 AI 应用之间有了统一的插座。核心价值解决了 AI 工具生态的碎片化问题让 Agent 可以无缝切换不同的数据源。7. Agent - 智能体本质具备自主规划、记忆和工具使用能力的 AI 实体。详细机制Agent LLM 规划 (Planning) 记忆 (Memory) 工具使用 (Tool Use)。它不再是简单的问答而是为了完成一个复杂目标如“帮我写一个网站并部署”而不断尝试的逻辑体。8. Agent Skill - 智能体技能本质Agent 经过封装的、高层级的原子化能力。详细机制区别于基础的 Tool如“读文件”Skill 通常是多个 Tool 的逻辑组合。例如“代码审计”是一个 Skill它内部包含了读取、分析、对比、打分等多个步骤。工程视角Skill 增强了 Agent 的复用性让开发者可以通过组合 Skill 来快速构建复杂的 Agent。二、 核心关联图谱名词角色定位形象类比LLM大脑 / 引擎引擎Token燃料 / 单位汽油分子Context运行内存挡风玻璃视野Prompt方向盘指令驾驶指令Tool外部肢体机械臂 / 传感器MCP标准化接口统一的数据插槽Agent驾驶员具备意识的司机Agent Skill驾驶技术倒车入库 / 漂移技巧三、 破局之道以“系统架构师”的视角融合概念在面试中千万不要像查字典一样一个一个解释。要把它们串成一条线。总结回答面试官的精辟逻辑“回答这些概念核心要看它们是如何协作产生价值的。你可以告诉面试官LLM是计算的核心它消耗Token在Context的限制内运行。我们通过Prompt下达指令让它成为一个Agent。这个 Agent 利用MCP协议提供的标准化能力调用各种Tool并不断磨炼自己的Agent Skill从而解决复杂问题。我不只是在背诵名词我是在理解一个由这些组件构成的‘数字生命体’的工程运行逻辑。”
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2524615.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!