077、代码实战十九:扩散模型生成结果的偏见与多样性分析
一、从一次深夜调试说起上周团队 review 生成结果时,发现一个诡异现象:连续生成 100 张“医生”图片,89 张是男性戴眼镜的白大褂形象;生成“护士”则 94 张是女性。数据组同事把统计结果扔过来时,我背后一凉——这模型怕不是从训练数据里学到了全套社会刻板印象。更麻烦的是,产品那边反馈生成内容“越来越像”,用户开始抱怨缺乏惊喜。这两个问题看似无关,实则同根:模型在潜空间中的分布偏好。今晚就聊聊怎么用代码把它挖出来。二、偏见检测:不只是统计性别比例很多人一提到偏见分析,就只统计性别、种族比例。太浅了。真正的偏见藏在条件概率的扭曲里。看看我们写的检测脚本:defanalyze_conditional_bias(pipe,prompts,neutral_base="a photo of a")
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2539322.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!