文章目录
- 一些神奇咒语
- 提供额外资讯
- 拆解任务
- 使用工具
- 让模型彼此合作

一些神奇咒语
让模型一步一步的思考

让模型解释一下自己的答案

对模型进行情绪勒索,比如对模型说:这件事对我真的很重要!

跟模型说”请“是没有用的;跟模型说“要做什么”,不要跟模型说“不要做什么”;可以跟模型说会给他一些小费;可以跟模型说你会受到惩罚;可以跟模型说不要刻板;

直接让AI来想Prompt,比如我想解答一道数学题,直接问AI:如果我今天要解决一道数学问题,你有什么样的咒语可以强化你的能力呢?能不能给我一个更强的咒语?

提供额外资讯
可以举例子、可以让他先读一些资料(in-context learning)
拆解任务
让他自己把写过的内容进行摘要,以免他忘记了

回顾一下CoT,其实就是让模型去思考,那么为什么让他思考就会有用呢?
CoT可以看作是一种拆解任务,不过现在的模型本身就已经会CoT了

让模型检查自己的错误

 
让模型自己多次检查自己的答案(ToT - Tree of Thoughts)

总结来说,拆解任务有下面3种

* of thought 就是把一个复杂的任务拆解成小的任务

使用工具
搜索引擎,就是先去网络上搜寻出相关资料,然后和问题一起给模型,注意这时模型参数并不会改变。现在的gpt-4已经可以使用搜索引擎了,只不过什么时候需要搜是他自己决定的,你可以直接跟他说去上网搜寻。

写程序,过去是单纯靠文字接龙,但是现在在列出式子后,会写程序,这样解数学问题基本就不会错了。

语言模型是怎么使用工具的? 其实还是文字接龙,就是在接不出来的时候就调用适当的工具得到想要的内容后,继续接龙。

这篇论文介绍了如何综合利用前面的能力

让模型彼此合作
杀鸡焉用牛刀,简单的任务可以给简单的模型处理,复杂的任务给厉害的模型处理。

让模型彼此讨论,彼此讨论的时候可能需要这样的一句话:”你不需要完全同意我的看法“,不然它们可能就会讨论不起来,因为现在的模型都是比较谦逊的。

 
给模型不同的角色











![[从0开始AIGC][LLM]:LLM中Encoder-Only or Decoder-Only?为什么主流LLM是Decoder-Only?](https://i-blog.csdnimg.cn/direct/e5ef648eb1224649a35a3de0a4e35fe4.png#pic_center)







