OpenAI参与,重卷ImageNet:终于把FID做成训练
衡宇 发自 凹非寺量子位 | 公众号 QbitAI统治AI图像生成近10年的黄金标准第一次被拉下场当了教练。我说的是FIDFrechet Inception Distance。这个指标从2017年沿用至今一直无法无法投入日常训练使用。现在有人打破了这个窘境——来自USC、CMU、CUHK和OpenAI的全华阵容研究团队提出了一种叫FD-loss的方法把“算统计的样本池”和“算梯度的batch”彻底解耦。依靠数万张图像组成的大容量缓存队列或指数移动平均机制稳定完成分布估算仅针对当下小批量数据开展梯度回传。仅凭这一个idea长期受限的FID终于能够作为训练损失函数参与模型的直接优化。实验带来了多项出人意料的结果一个已有的单步生成器后训练后直接刷出FID 0.72ImageNet 256×256而且推理成本零增加。一个训练了50步的多步扩散模型被他们直接repurposing成1步生成器无需教师蒸馏、无需对抗训练效果还能打。其中最违背固有认知的发现在于FID数值最优的模型视觉观感未必出众。依托DINOv2、MAE、SigLIP等前沿视觉表征训练的模型FID表现不如基于Inception架构优化的版本但画面物体结构完整性与细节还原度都会明显更好。业内长期扎堆优化FID分数可这项沿用近十年的评价标准早已达到性能瓶颈甚至会引导模型走入错误的优化方向。对6种表征空间的归一化弗雷歇特距离Fréchet DistanceFD比值取平均得到更鲁棒的综合指标FDrk。按照这套新标准测算真实验证集基准数值为1.0现阶段顶尖生成模型的数值依旧高达1.89。这足以说明ImageNet图像生成领域距离技术成熟还有很远的距离。解耦统计量与梯度计算FID是所有生成模型性能测评的核心评判标准。这个歌值越小意味着生成图越真实、分布越接近真实。它的计算方式是把真实图和生成图用Inception-v3提特征各算一个高斯分布再求两个分布之间的距离。不过过去FID只能当评测指标。因为测算一次FID需要50000张图片的统计数据而GPU每步训练能塞下的batch撑死也就1024张。如果强行把5万样本全部参与反向传播显存多半当场爆炸。新研究的破局思路是“彻底解耦”。简单来说研究团队用数万张图组成的大窗口队列或 EMA稳定估算真实与生成分布的均值、协方差保证FD计算准确梯度只回传当前小批量数据不增加训练算力负担。研究者设计了两种工程实现。第一种叫队列法Queue。这种方法维护一个超大特征队列比如5万条每次生成新batch就enqueue同时把最老的batch踢出去。算FD时用整个队列的均值和协方差反向传播时只给当前这1024条特征开梯度流历史特征不参与梯度回传保证统计稳健性的同时不增加训练开销。第二种叫EMA法。这种方法干脆不存储任何特征数据仅通过指数移动平均实时更新生成样本特征的一阶矩与二阶矩每一步使用当前批次的统计量平滑更新全局均值与协方差估计梯度同样只作用于当前批次。这种方式无需占用大量显存统计结果更平滑稳定还能轻松适配多表征空间联合优化在实验中表现更优也成为论文默认的实现方案。为了验证这套解耦机制是否真的有效研究者在最小的pMF-B/16118M上做了两组消融实验。注论文在实验中使用了明确的模型规模分级其中B代表Base小模型参数规模约89M到131M。第一组对比队列长度。不用队列N0时FID反而从3.31劣化到3.84。队列加到5万时FID骤降至0.89但狂堆到50万后因历史特征严重staleFDr6直接崩回17.67。第二组对比EMA衰减率。β0.999时FID刷到0.81比队列版更优且显著好于过短的0.90.98和过长的0.99990.98。因此后续所有实验——无论pixel/latent空间、多步转单步、还是2.5B参数的文本模型——均默认采用EMA方案。三个“反常识”的实验发现新提出的FD-loss本质上是一个后训练的分布对齐目标。研究者从已经训练好的生成器出发只用FD-loss做轻量微调。真实图像只在离线阶段出现一次——预先把训练集的均值和协方差算好存盘之后模型再也不见真图只对着自己生成的样本做自我修正。这意味着它不需要修改原有架构不需要从头训练也不需要教师蒸馏或对抗学习像插件一样直接嵌入现有流程。而且无论像素空间还是隐空间、单步还是多步模型都能即插即用。有了这个轻量框架研究团队才得以系统性地测试当FID真的变成损失函数生成模型会发生什么。FD-loss带来了三个重要的实验发现。发现一FD-loss让单步生成模型首次实现画质与速度的新高度。研究者拿了一个已经训练好的单步生成器 pMF-H直接上FD-loss微调100轮。结果在ImageNet 256×256上FID从2.29干到了0.77同时依然保持 1-NFE单步生成。这一分数大幅超越过往多步扩散模型的最好水平打破了 “高质量必须多步、单步只能低画质” 的固有枷锁。换句话说推理成本一分钱没多花画质直接跃升。同样的操作放到latent-space的iMF-XL上FID也从1.82压到0.76。更关键的是这种提升不是刷分。在论文图4的定性对比里后训练的鹦鹉羽毛更分明雪豹的斑点也更清晰。发现二FD-loss可以直接将成熟的多步扩散模型改造为高性能单步生成器。研究者把原本训练来跑50步的多步模型JiT-L强行拉到单步模式也就是直接输入纯噪声模型只跑一次输出就当最终图像。结果就是FID直接崩到291.59画面糊成一锅粥。然后他们什么都不改就用FD-loss继续微调这个的单步模式。整个过程无需教师蒸馏无需对抗训练无需逐样本监督信号。50轮后FID从291骤降到 0.77生成质量与原多步模型相当甚至更优而且推理速度提升数十倍。发现三FID最低的未必是最好的。这也是该试验最具行业反思价值的一点。当研究者把FD-loss放到不同的表征空间里优化时事情变得诡异起来惊恐.jpg。实验清晰表明FID最低的模型在人眼主观评价中并非最优。基于Inception特征优化的模型能获得最低FID却在物体结构、细节纹理、整体感知上弱于使用DINOv2、MAE、SigLIP等现代视觉表征训练的模型。后者FID数值更高但人眼看更锐利、物体结构更完整视觉质量显著更优。这说明长期被奉为金标准的FID可能会误导研究方向……团队提出新标准那么如果FID已经靠不住了我们拿什么来相信生成模型的进步研究团队提出跨6种表征空间的归一化平均指标FDrk。该指标通过对Inception-v3、ConvNeXtv2、DINOv2、MAE、SigLIP2、CLIP共6种不同维度的表征空间计算归一化FD比值并取平均得到综合评估结果FDr6。按照这一标准真实验证集的基准值为1.0而当前最强生成模型的FDr6仍高达1.89直观揭示 ImageNet生成任务远未被解决。此外在人类盲选偏好实验中即便最优的pMF-H模型得票率也只有37.4%真实图片依旧以62.6%的胜率占优。值得一提的是FD‑loss具备极低的使用门槛与极强的泛化能力可作为轻量化后训练插件直接嵌入现有训练流程无需从零搭建模型也不依赖复杂的训练策略与工程调优。该方法同时兼容像素空间与隐空间生成模型适配单步生成器与多步扩散模型支持类别条件生成与文生图等多种任务模式。在整个优化过程中FD‑loss无需修改原有主干网络结构不引入复杂的架构改动和从头训练的巨大开销依托队列或EMA统计更新即可稳定收敛具备优秀的复现性与落地可行性。凭借简洁通用的设计它大幅降低了高质量极速生成模型的工程实现门槛让各类生成架构都能快速获得显著的质量提升。低成本、高回报这正是FD-loss之于工业界的诱惑力所在。团队介绍公开信息显示五位作者全部是华人背景。一作Jiawei YangUSC计算机系博士生师从Yue Wang教授目前的研究聚焦于以视觉为中心的多模态模型的统一生成与理解。他硕士毕业于UCLA曾获NVIDIA Graduate Fellowship。Zhengyang Geng本科毕业于四川大学计算金融专业现为CMU计算机科学博士生导师为Zico Kolter。他长期专注单步生成、动态系统与模型高效化是MeanFlow、pMF等系列工作核心作者。他的个人主页写道“与Kaiming He有紧密合作”两人曾连续合作多篇单步生成领域核心论文。Xuan Ju是香港中文大学博士生师从徐强教授主攻图像与视频生成、高效多模态模型。她在ICCV、SIGGRAP 等顶会发表多篇成果。Yonglong Tian博士毕业于MIT计算机科学专业现为OpenAI研究员。他是监督对比学习SupContrast等表征学习标志性工作的作者曾任职于Google DeepMind。通讯作者Yue WangUSC助理教授同时兼任英伟达研究科学家。他本科毕业于浙江大学硕士毕业于UCSD博士毕业于MIT研究横跨3D视觉、生成模型与机器人。论文arXivhttps://arxiv.org/abs/2604.28190一键三连「点赞」「转发」「小心心」欢迎在评论区留下你的想法—完—AI正在从少数人的工具变成所有人的日常。今年5月20日我们将在北京金茂万丽酒店举办一年一度的中国AIGC产业峰会。首波嘉宾阵容已公布昆仑万维方汉、智谱吴玮杰、EverMind邓亚峰、风行在线易正朝、百度秒哒朱广翔、Fusion Fund张璐、香港大学黄超、MarsWave冯雷都来了了解详情邀请你和我们一起不再只是讨论AI的未来而是现在就用起来。 报名参会一键关注 点亮星标
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2581186.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!