让AI主动做事,从建立身份认同开始
管理AI就像管理员工下达命令会引来抵触但一旦让它建立‘我就是这样的人’的身份认同它便会主动遵循规则。你有没有过这种经历 明明跟 AI 说好了要做什么转头它就忘得一干二净 你写了一堆规则加了一堆提醒它该干嘛还是干嘛仿佛你在对牛弹琴我最近就遇到了这么一件事。 一个看起来简单到不能再简单的需求让 AI 在干活前先查两个索引文件。 用 grep 搜一下0.1 秒的事。 结果我花了整整 3 天改了 14 个版本才终于搞定。折腾到最后我才发现原来管 AI和管公司里的新员工居然是一模一样的道理。这个需求简单到我以为 10 分钟就能搞定事情是这样的。 我们团队给 AI 搭了一套规则管理体系分成了三层L1 铁律5 条绝对不能碰的规则每次对话自动加载比如不能跨角色干活。L2 规则索引41 条规则的摘要需要的时候搜一下就行不用每次都加载。L3 源文件完整的规则原文出了事才用平时不用管。设计得明明白白对吧 L1 的关键规则永远在线L2 的详细规则需要的时候再查完美平衡了效率和准确性。结果测试的时候问题来了。 L1 的铁律AI 执行得完美无缺。你让它干违规的事它 0.1 秒就拒绝还能准确说出违反了哪条规则。 但是 L2 的“需要时查索引”它是一点都不做。比如我让它帮我写个 docx 文档这本来是需要查一下 L2 的索引看看格式要求和工具链的。 结果 AI 直接上手就写用了个错误的工具违反了两条规则从头到尾连那个索引文件的边都没沾过。我当时就纳闷了我明明在系统提示里写了 「non-trivial 任务前要查规则文件」 你 啊 后来我才想明白这不就是我们办公室的常态吗 AI 也是一样。它不是看不到那条指令是看到了也没当回事。 对它来说这就是个额外的、可做可不做的任务能跳就跳了。我试了所有暴力解法全败了那能怎么办既然提醒没用那就上硬的呗。 我当时想不就是让它查个文件吗我有的是办法逼它做。v1 版本弹提醒。 我在 AI 收到消息的时候自动给它加一句系统提示「」 请先查那两个索引文件 结果呢AI 直接忽略。就像你在同事已经堆满便签的桌上又贴了一张他根本看不见。v2 版本工具拦截。 软的不行来硬的我搞了个计数器你没搜过那两个文件就不让你调用任何工具 就像公司搞门禁你不打卡就不让进公司。 结果呢AI 平时本来就会搜文件啊查代码、找资料这些正常的搜索直接把计数器给清零了。门禁没起到任何作用它搜完别的文件就直接干活去了。然后我又试了 v3 到 v8各种变种精确路径匹配必须读那两个特定的文件别的不算。自动注入结果我直接帮它搜好把规则塞到它的提示里。让它自己选关键词我只给路径让它自己搜。技术上都生效了但是有个致命问题我写的这些 hook 代码会被平台的同步机制覆盖掉。每次同步我的修改就没了。试到第 7 个版本的时候我才发现 在当前的架构下所有 「逼它做」 的所有纯靠文本提醒方不管你措辞多强硬执行率最高也就 50%顶天了。 的路全都是死胡同。 要么就是不能持久要么就是执行率上不去。撞墙之后我突然想通了7 个版本全部失败。 我坐在电脑前盯着那堆失败的草稿突然停住了。 我一直在想怎么才能逼它做这件事 但是我从来没问过自己为什么它不想做这件事null但是如果这根本不是额外的步骤呢你想啊打卡为什么大家都想绕开因为你把它当成了 「上班的额外任务」。没是开门这是你上班的自然流程啊。 但是开门呢那查规则能不能也变成这样 不是逼你做额外任务而是你工作的时候自然而然就会做的事改了 15 个字执行率直接跳到 100%想通这一点我做了第 9 个版本。 这次我一行代码都没写就改了null原来的描述是啥样的null看到没全是命令全是强制全是 「你必须做 XX不然不让你干活」。新版的描述我把 「门禁」 这两个字直接删了改成了你有两本字典表格式每行一条自包含摘要。遇到不确定的事就查。像查字典一样这是你的标准工作方式。就这么一句话把整个定位全改了。 不再是 「你必须先做这个才能干活」而是 「这两本是你的字典你干活的时候遇到不确定的就随手查这本来就是你该做的事」。没有强制没有拦截没有任何代码限制。 我就改了这么一段描述然后去测试。结果你猜怎么着 AI 在回复的前两个动作就自动用 grep 搜了那两个索引文件。 关键词选得比我还好「交接 | handover | 上下文 | SOP | 持久化」精准命中了相关的规则。 然后在后面的工作里它主动引用了这些规则一点都没忘。我又测了 4 次全中。 执行率从之前的 0%直接跳到了 100%。没人逼它没人拦它它自己主动做的。原来 AI 也吃 「身份认同」 这一套为什么这招这么管用 我后来想明白了这根本不是什么措辞的问题是 LLM 的一个核心行为特征 它对 「身份认同」 的遵循度远高于对 「任务指令」 的遵循度。你看 当我跟它说 「你必须先查文件」 你就像你老板跟你说 「必须每查门窗」 的时候它的理解是这是老板给我加的额外任务是外部的要求能躲就躲。 你第一反应是哦又给我加活了。但是当我跟它说 「你有两本字典遇到不确定的就查这是你的标准工作方式」 的就像你写东西时候遇到不会的字你自然而然就会查字典没人逼你你自己就会做。 的时候它的理解是哦这是我啊我就是这样的人我干活的时候本来就会查字典。 这就变成了它的自我认知是它自己的属性不是别人给它加的任务。原来这个文件在 AI 的认知里根本不是什么规则文件是 「我是谁」 我写在里面的东西不是 「你要做什么」是 「是什么样的人」。 的定义文件。同一件事你放在“我是谁”里和放在“你要做什么” 里执行率天差地别。你说这和管员工是不是一模一样 你跟员工下命令他会抵触会敷衍。 但是你帮他建立身份认同让他觉得 「这就是我该做的」他自己就会主动把事做好。原来 AI根本不是一台听指令的机器它更像一个需要认同感的员工。从 291 行代码到 15 行文字折腾了 3 天14 个版本。 最开始的 v1我写了 291 行 Python 代码搞各种 hook、拦截、计数器想把 AI 摁着脑袋让它查文件。 结果最后真正管用的方案只有 15 行 Markdown 文字。零代码零外部依赖不会被平台覆盖还能直接分发给所有用户。最好的方案往往是最简单的那个。 但是你得先走完那些复杂的弯路才会明白为什么简单的方案管用。这 14 个版本的弯路最后浓缩成了一句话 不要逼 AI 做事要让它觉得这就是它的工作方式。这 5 条经验今天你就能用在你的 AI 上这 14 个版本踩的坑最后沉淀出了 5 条经验不管你用什么 AI 框架今天就能直接用你要记得做 X「不如 」你的输出必须包含 X 的结果「。别跟 AI 说 」记得查规则「你要跟它说 」 它转头就忘。你的回复必须以 开头「。LLM 对输出格式的注意力远高于对行为指令的注意力把要做的事翻译成输出里必须有的东西。不可靠的环节别修要分解 AI 不会主动做某件事别费劲去改它的行为。把它拆成AI 输出一个标记然后你用脚本自动处理剩下的。把一个不可靠的环节拆成两个可靠的环节这招能解决 90% 的 「AI 应该做但就是不做」 同样一条规则写在身份描述里它 100% 遵守规则放在哪里比规则写了什么重要。 的问题。写在单独的文件里让它 「需要时查」把关键行为写进角色定义里。写 Prompt 的时候先想 「这条规则放哪」再想 「这条规则怎么写」。对 AI 来说「我是谁」 「我该做什么」。它 0% 触发。别 「你要查文档」要说 「你是一个遇到不确定就会查文档的工程师」。大规模修改必须全量验证别抽样。改完 Prompt 或者规则别测几个样例就完事了。身份认同的力量比任何命令都管用。用 grep 全量扫一遍所有文件不然你永远不知道有没有漏了什么旧的术语或者旧的规则残留。写在最后14 个版本一个结论 AI 不需要更多的规则它需要正确的自我认知。写规则很容易让规则活过第一次执行才是真正的挑战。 而最终的答案从来都不在那些复杂的技术手段里而在你怎么理解它的行为模式里。它不是不听话只是你用错了方式。 就像你管员工你不能靠强制靠惩罚你要懂他要让他觉得这就是他自己的事。原来人和 AI在这一点上居然这么像。 你有没有遇到过 AI「不听话」 的评论区聊聊你经历吧 的情况你是怎么搞定的评论区聊聊你的经历吧
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2556071.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!