【幻觉缓解算法 - 减少大模型错误生成】第三章 监督微调与对齐训练的事实性优化
目录3.1 监督微调与对齐训练的事实性优化3.1.1 领域特定微调策略3.1.1.1 真实性指令微调3.1.1.2 拒绝感知训练3.1.1.3 合成数据增强3.1.2 基于人类反馈的强化学习(RLHF)变体3.1.2.1 事实性奖励模型3.1.2.2 直接偏好优化(DPO)的事实性适配3.1.2.3 多阶段弱监督3.2 模型编辑与知识更新机制3.2.1 定位-然后-编辑(Locate-then-Edit)范式3.2.1.1 知识神经元识别3.2.1.2 ROME与MEMIT3.2.1.3 知识编辑的副作用控制3.2.2 持续学习与知识固化3.2.2.1 事实性课程设计3.2.2.2 记忆增强架构3.3 解码策略与推理时计算优化3.3.1 事实性引导的解码算法3.3.1.1 对比解码3.3.1.2 基于检索的规格化3.3.1.3 事实性约束束搜索3.3.2 后处理检测-修正流水线3.3.2.1 MiniCheck架构3.3.2.2 事实-检查-然后-RAG3.3.2.3 多智能体辩论3.1 监督微调与对齐训练的事实性优化大型语言模型在预训练阶段吸收的事实知识往往呈现碎片化分布,且易受训练数据中的统计偏差影响。监督微调与对齐训练为重新组织这些知识表征提供了关键干预窗口。通过在特定架构约束下调整参数空间中的知识分布,可以建立更鲁棒的事实关联,同时培养模型对自身知识边界的元认知能力。3.1.1 领域特定微调策略事实性微调的核心挑战在于构建能够区分真实陈述与似是而非虚假陈述的训练信号。与通用指令微调不同,真实性优化需要
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2433827.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!