Ambient Diffusion 是一种能够从损坏数据中学习干净分布的创新方法,为科学应用中无法获得未损坏样本的问题提供了解决方案。该框架不仅适用于学习分布,还可以训练生成模型,避免记忆训练样本。
研究人员通过在扩散过程中引入额外的测量失真,进一步破坏原始扭曲图像,并挑战模型从其他扭曲图像中预测原始扭曲图像。
项目地址:https://github.com/giannisdaras/ambient-diffusion
研究表明,即使训练样本中有90% 的像素丢失,模型仍然可以学习到原始图片的分布。该方法还可以用于改进标准预训练扩散模型,并可以在几个小时内在单个 GPU 上完成微调过程。
它通过引入额外的测量失真和条件期望学习的方式,能够适应各种失真过程,并在高度损坏的样本中实现准确的学习。此外,该框架还具有良好的可扩展性,支持在常用数据集上进行训练,并能够处理大规模的损坏数据。
核心功能:
1. 学习未知分布:通过引入额外的测量失真,训练模型预测原始损坏图像。
2.条件期望学习:使用任何满足一些技术条件的失真过程训练模型,可以学习到给定附加测量损坏的完整未损坏图像的条件期望。
3. 应用范围广泛:支持包括修复和压缩感知在内的各种损坏过程。
4. 可扩展性:支持在标准数据集上进行训练,并能够在所有训练样本中有90% 像素丢失的情况下学习分布。
评论列表 (条)