Bendi新闻
>
ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量

ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量

6月前


论文链接:
https://arxiv.org/abs/2308.15321

代码连接:

https://github.com/forever208/ADM-ES


摘要

扩散模型在图像生成方面非常成功,但其曝光偏差(exposure bias)的问题(训练和采样过程的输入存在偏差)缺乏深入的探索。在本文中,我们通过首先对真实的采样分布进行分析,并找出了暴露偏差问题的根本原因。此外,我们讨论了该问题一些潜在解决方案,并且提出了一种简单且高效的无需训练的方法,称为 Epsilon Scaling(ES),来减轻暴露偏差。

实验表明,ES 显式地让采样轨迹向训练轨迹(训练得到的向量场)靠近,从而减轻训练和采样之间的输入不匹配。我们在各种扩散模型框架(ADM、DDIM、EDM、LDM、DiT、PFGM++)上验证了 ES 的有效性。比如将 ES 应用于 ADM 上,我们得到了一个 SOTA 的随机采样器:在 100 步无条件生成下,在 CIFAR-10 上获得了 2.17 FID.


扩散模型中的曝光偏差

与自回归的文本生成类似,扩散模型也存在曝光偏差问题。即训练阶段喂给网络的是真值 ,而采样阶段喂给网络的是上一时刻网络预测的 ,由于网络在训练阶段从来没有看过 ,因此无法学习准确的 score 或 epsilon。



真实的采样分布
我们显式地建模真实的采样分布以比较 的差异。以 DPPM 为例,理论上的采样分布是基于 posterior(下图右式)得到的,其中 是指神经网络通过输入 预测的

但上式仅在 时成立,而神经网络对于 的预测始终存在误差,因此真实的采样分布需要考虑网络在每一步采样中关于 的预测误差。以 Analytic-DPM 为例,假设该预测误差为高斯分布:

我们最终能得到真实的采样分布 ,将其与训练过程中的条件 分布做比较,我们得到表 1 的结果,显然采样阶段网络看到的 具有更大的方差。
上述是对于单步采样的解析,迭代后可得到多步采样的真实分布,此外 DDIM 也具有类似的结果(详见论文)。我们对表 1 两个分布的方差之差(方差误差)进行可视化,得到了图 1 的结果,可以看到误差会逐步积累。


曝光偏差的解决方案

我们现在谈论曝光偏差的解决方案:

  1. 最直接的方式就是训练一个更准确的网络,参考 EDM 的调参;
  2. 通过数据扩增训练一个更稠密的向量场,如 EDM 的几何扩增,DDPM-IP 的输入扰动;
  3. 采用 PFGM 生成框架,其框架对于预测误差有更强的鲁棒性。

但上述方法都需要重新训练一个模型,而我们下文提出方案是针对采样过程,并与上述方案兼容。



Epsilon Scaling

通过观察网络输出的 的模长,我们可以看出训练和采样过程存在偏差,且该偏差会逐步累计。我们因此提出 Epsilon Scaling 以缩放采样过程中的 以使其向训练过程中的 靠拢,即让下图绿色轨迹向红色轨迹靠拢。

因此,我们的采样方案仅需在原有采样函数上加一个缩放因子 ,基于误差传递的分析,我们最后得到了   的一次函数缩放策略,并且发现 k 在实际中接近于0,因此简单起见推荐 的常数缩放策略。


ES 的实验结果

ADM 上的实验结果:

ADM-ES 优于其他 stochastic samplers:

DDIM 上的实验结果:
EDM 上的实验结果:
LDM 上的实验结果:

DiT 上的实验结果:
PFGM++ 上的实验结果:


ES 改善采样轨迹

我们可以看到 ES 将原有的采样轨迹(绿色线)推到了蓝色线,后者更靠近训练阶段得到的向量场(红色线)。
通过对每一步采样设置 random seed,我们从下图发现 ADM(第一行) 和 ADM-ES(第二行)生成得到的样本点相似,但是后者的生成质量更高。



文章的最后

如果你有从头训练一个扩散模型的需求,推荐一下我们 ICML 2023 的文章,提出了一行代码提升扩散模型生成质量和训练速度的方法,改论文从训练角度给出了曝光偏差的多种方案。

效果一览:

论文链接:
https://arxiv.org/abs/2301.11706

代码链接:

https://github.com/forever208/DDPM-IP



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·


微信扫码关注该文公众号作者

来源:PaperWeekly

相关新闻

巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024CVPR 2024|让图像扩散模型生成高质量360度场景,只需要一个语言模型Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩ICLR 2024 | 再论生成数据能否帮助模型训练?LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」不影响输出质量还能追踪溯源,「大模型无偏水印」入选ICLR 2024 SpotlightICLR 2024 | 媲美DALLE-3!基座模型LaVIT刷榜多模态理解与生成任务ICLR 2024 Spotlight | 无惧中间步骤,MUSTARD可生成高质量数学推理数据ICLR 2024 | 鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练超越扩散模型!自回归新范式仅需2.9秒就生成高质量图像,中科大哈工大度小满出品ICLR 2024 | 微软提出全新LLM剪枝方法:参数减少25%,大幅提升计算效率清华联合蚂蚁提出TimeMixer,可分解多尺度融合的时序预测模型 | ICLR 202470亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024Zilliz携手智源研究院集成业界大热模型,全面提升RAG质量谷歌发布West-of-N,利用合成数据,显著提升LLM奖励模型质量 | 今日Arxiv最热大模型论文NUS、清华提出STAR:一句话生成高质量4D Avatar,代码已开源在 ICLR 2024,看见中国大模型的力量ICLR 2024 | 根据压缩比率控制生成样本难度,NUS等提出首个无损数据集蒸馏方法Meta发布3D Gen AI模型,可在1分钟内生成高质量3D内容;马斯克称特斯拉将消灭所有空头:比尔盖茨也不例外....ICLR上新 | 强化学习、扩散模型、多模态语言模型,你想了解的前沿方向进展全都有ICLR 2024 | Adobe提出DMV3D:3D生成只需30秒!让文本、图像都动起来的新方法!ICLR 2024 | 理解图神经网络在规则学习中的表达能力1分钟生成高质量3D素材!Meta甩出文生3D模型,效果演示惊艳ICLR 2024 | 冻结住的CLIP仍可作为教师模型!港大提出全新开集动作识别模型
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。