网站设计步骤及图解,个人商城网站建设,企业门户管理系统,手机网站设计尺寸ICCV2023的一篇用diffusion模型做Image Restoration的论文#xff0c;一作是清华的教授#xff0c;还在NIPS2023上一作发表了Hierarchical Integration Diffusion Model for Realistic Image Deblurring#xff0c;作者里甚至有Luc Van Gool大佬。模型分三个部分#xff0c…
ICCV2023的一篇用diffusion模型做Image Restoration的论文一作是清华的教授还在NIPS2023上一作发表了Hierarchical Integration Diffusion Model for Realistic Image Deblurring作者里甚至有Luc Van Gool大佬。模型分三个部分一个是CPEN用来提取IPR一个是DIRformer用来完成restoration任务一个是denoising network用diffusion的方式来预测IPR。分两阶段训练第一阶段先train CPEN和DIRformer第二阶段再train denoising network。如此看来其实思想和stable diffusion很像就是不在图像域上diffusion这样size太大而且step太多而是在特征域上diffusion本文就是在IPR上diffusion 方法的细节上图都有。首先CPEN是一个从输入和GT的concatenate中提取一维向量用这个一维向量参与到用于restoration的transformer中的channel-wise调制过程。第一阶段是这个restoration network和这个CPEN的联合训练损失是restoration结果和GT之间的L1损失。这里引进GT是为了这个向量能提取得更好一点从而使得整个过程的PSNR更高一点。但实际应用中我们不可能有GT来作为输入所以第二阶段我们需要train一个diffusion model来从LQ图片中预测z。这里diffusion还是老一套认为一阶段train好的CPEN提取的z是x0然后加噪到xtreverse的过程就是从xt去噪预测x0的过程。diffusion模型的输入由3部分组成首先当然是上一步的Zt然后是t接着是作为条件输入的D这个D是用一个新的CPEN从LQ中提取的称为CPEN2他和第一阶段的CPEN在网络结构上是一样的除了输入层。这个很好理解如果没有D作为条件那不就相当于要diffusion模型从噪声预测一个z出来那这个z当然和input无关所以需要额外添加一个D作为条件这也是很多用diffusion做restoration的思路。第二阶段需要混合训练CPEN2denoising network和restoration network损失函数是restoration结果 和GT之间的L1损失以及diffusion预测的IPR和第一阶段的CPEN预测的IPR之间的L1损失。感觉这个工作怪怪的restoraion一般比较关注的去噪没有做居然做了inpainting。选的三个任务是超分inpainting和deblurring这三个任务。此外这个IPR向量仅仅是通道调制在我看来更多可能影响风格信息用diffusion模型来预测这个IPR向量真的有必要吗对这个工作实际效果持怀疑态度到时候跑代码看一下。