Agent的决策模糊
文章目录Langchian Agent内部记忆:信息过载LLM注意力有限的解释上下文窗口长度很大会有这种问题么对比langGraphLangchian Agent内部记忆:官方 ReAct 内部机制铁律LangChain 的 AgentExecutor 在一次 invoke () 内部会创建一个唯一的记忆列表每一步 Thought → Action → Observation 都是 append 追加绝对不会清空、不会覆盖、不会重置记忆从第一步到最后一步完整保留信息过载任务复杂→ 需要多轮工具调用每一步 Thought/Action/Observation 都追加到上下文→ 上下文越来越长LLM 注意力有限长文本能力天然弱→ 早期关键步骤被淹没模型看不到“我已经做过这件事”→ 再次推理我应该做 XX重复调用同一工具→ 表现为死循环 / 重复动作 / 逻辑倒退假设任务需要3次工具调用 第1轮 LLM第一次调用 塞system用户问题 输出Thought→Action工具1 调用工具 →Observation1第2轮 LLM第二次调用 塞system用户问题历史1完整内容Observation1输出Thought→Action工具2 调用工具 →Observation2第3轮 LLM第三次调用 塞system用户问题历史1历史2Observation2输出Thought→Action工具3 调用工具 →Observation3第4轮 LLM第四次调用 塞system用户问题历史123Observation3输出Thought→ 结束给答案比如[1.SystemPrompt]你是一个ReAct智能体按照Thought→Action→Observation思考。[2.UserQuery]帮我定位服务器告警原因。[3.完整历史轨迹所有步骤]Thought:我需要先查CPU占用Action:cpu_tool()Observation:CPU100%Thought:我需要查哪个进程占用高Action:process_tool()Observation:java 进程占用90%[4.最新Observation已经包含在历史里]请继续下一步Thought:LLM注意力有限的解释LLM 每看一个字 /token都会给一个注意力分数重要 → 分数高不重要 → 分数低上下文越长每个 token 的平均分数被摊薄早期关键信息的分数变得极低模型相当于 “看不见” 那些早期内容不是不存在是权重太低被忽略了。上下文窗口长度很大会有这种问题么上下文窗口再大LLM 依然会「看不过来」甚至更严重。上下文长度 ≠ 注意力质量。窗口再大LLM 依然有「长文本遗忘 / 长程注意力弱」的问题。越大窗口反而越容易前面全看不见。对比langGraphReAct 全靠 LLM 看完整历史 → 注意力扛不住LangGraph 把关键信息存在 State 里 → 不让 LLM 自己去翻历史这就是为什么现代 Agent 都抛弃纯 ReAct转向状态驱动。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2468859.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!