当前位置: 首页 > news >正文

网站开发维护员挣钱吗苏州做网站推广

网站开发维护员挣钱吗,苏州做网站推广,天津建设工程信息网投标信息系统登录,青岛高端模板建站文章目录 前言基础模型结构UNet结构Timestep Embedding关于为什么需要timestep embedding global attention layer 如何提升diffusion model生成图像的质量Classifier guidance实验结果 前言 在前几篇博文中#xff0c;我们已经介绍了DDPM、DDIM、Classifier guidance等相关的… 文章目录 前言基础模型结构UNet结构Timestep Embedding关于为什么需要timestep embedding global attention layer 如何提升diffusion model生成图像的质量Classifier guidance实验结果 前言 在前几篇博文中我们已经介绍了DDPM、DDIM、Classifier guidance等相关的扩散模型基础从本节博客开始将介绍一些经典偏应用类的文章。 《Diffusion Models Beat GANs on Image Synthesis》是openAI在2020年发表的一篇文章。文章从模型结构入手通过扩大模型容量在图像生成任务上击败了当时的SOTA Big GAN。 此外还提出了Classifier guidance用于控制扩散模型生成指定类型的图像具体推导流程可以查阅前文。 本节博客将重点总结模型结构相应的代码可在此处查阅。 基础模型结构 Unet结构timestep embeddingglobal attention layer是扩散模型常用的backbone。本节将对上述三个结构做个简单介绍。 UNet结构 UNet结构由encoder和decoder两个神经网络组成。如下图所示encoder对图像进行downsampledeocder对图像进行upsampleencoder和decoder之间存在skip connection。encoder和decoder均由residual layers堆叠而成。 Timestep Embedding 在扩散模型中通常需要进行 T T T次迭代。类似于位置编码扩散模型的每次迭代都有一个timestep embedding用于告知模型目前是第几次迭代其形式通常为一个常数vector不同迭代次数的timestep embedding通常不桶。添加timestep embedding的方式有很多可以通过concat的方式嵌入到每一个residual layers中也可以通过add的方式嵌入到每一个residual layers的输出中。 如下代码所示在ADM中timestep embedding在经过一层learning层处理后通过add的方式嵌入到每个residual layers中。 关于为什么需要timestep embedding 扩散模型每轮迭代的输入图像所属的输入分布类型是不一致的针对不同的输入分布扩散模型的输出分布也会不同。但是模型要意识到当前图像处于哪种输入分布是件很难的事情当两个输入分布近似时模型的输出可能也会近似这将很大程度影响生成图像的质量。例如生成一双手在迭代初期模型的输出应该是手指的轮廓等粗粒度信息而迭代后期模型的输出应该是手指指甲的光泽度的细粒度信息如果迭代前后期的输入分布近似那么在迭代的后期模型将无法输出指甲光泽度等细粒度的信息生成的图像将不够逼真。 而timestep embedding的引入相当于把不同步骤的输入分布做了个区分。模型在学习的过程中这种强烈的信号是不会被忽视的输出分布的形式大概率会与timestep embedding强烈关联。当timestep取值较小时模型输出的将是一些粗粒度信息而随着timestep的取值逐渐变大模型的输出也会逐渐变细。 global attention layer global attention layer在ADM中其实就是self attention。假设第N层有 T T T个大小为 H ∗ C H*C H∗Cfeature map将一个feature map看成一个token则对应的矩阵大小为 ( H ∗ C ) ∗ T (H*C)*T (H∗C)∗T在该矩阵上使用self attention具体的代码如下 如何提升diffusion model生成图像的质量 在上一节中我们已经总结了ADM的基础模型结构在本节中我们将总结论文中提到能有效提升diffusion model生成图像质量的方法。 论文在五个方面进行了消融实验 在128*128分辨率的imagenet图像上训练batch size设置为256采样时的迭代轮数为250对应的结果如下 可以看到单独加深网络、或添加更多的self attention head、或在更多层使用self attention、或使用big gan的残差模块都可以提升diffusion model生成图像的质量。 此外作者探究了local attention和global attention对性能提升的影响。不论是local attention还是global attention都是使用self attention作为注意力策略但是进行注意力计算的feature map的个数不同。例如某一层共有256个特征图特征图分辨率为4*416将一个特征图看成一个token则该层的特征图可转换为16*256大小的矩阵global attention将在16*256大小的矩阵上进行self attention计算而local attention则可将16*256大小的矩阵划分为4个4*256大小的矩阵接着分别在4*256大小的矩阵上进行self attention操作。 作者探究了单独添加更多的global attention head或者使用local attention head对生成图像质量的影响最终发现两者均可以提升生成图像的质量结果如下 Classifier guidance Classifier guidance用于控制扩散模型生成指定类型的图像具体推导流程可以查阅前文 实验结果 ADM模型最终采取的配置为 For the rest of the architecture, we use 128 base channels, 2 residual blocks per resolution, multi-resolution attention, and BigGAN up/downsampling, and we train the models for 700K iterations.We opt to use 64 channels per head as our default. 实验结果
http://www.w-s-a.com/news/454506/

相关文章:

  • 漳浦网站建设网络营销推广策略
  • 龙岗商城网站建设教程百度关键词排名突然没了
  • 深圳网站建设服务哪家有织梦网站模板安装
  • 网站设计与网页制作代码大全网站开发还找到工作吗
  • 给设计网站做图会字体侵权吗站长工具seo综合查询张家界新娘
  • 网站的建设与颜色搭配win7在iis中新建一个网站
  • 单位做网站有哪些功能型类的网站
  • 网站怎样做优惠卷移动互联网开发培训
  • 重庆网站建设帝维科技网站做定向的作用
  • 网站建设工作室wp主题模板做污事网站
  • 网站建设 深圳 凡科重庆家居网站制作公司
  • 自己也可以免费轻松创建一个网站企业收录网站有什么用
  • 帮别人做网站违法导航网站开发工具
  • seo网站外包公司字画价格网站建设方案
  • 网站国内空间价格销售技巧
  • 广安建设企业网站qq互联网站备案号
  • 京东网站建设的要求vs2010做的网站
  • wordpress 新闻杂志主题佛山企业网站排名优化
  • 选服务好的网站建设金华市开发区人才网
  • 广州建站商城南阳高质量建设大城市网站
  • 网站建设合同封面模板做代炼的网站
  • 外贸网站建站要多少钱南昌优化排名推广
  • 做公司网站的尺寸一般是多大企业管理网站
  • 苏州网站设计公司兴田德润i简介做签证宾馆订单用啥网站
  • 网站页面设计工具做网站租空间
  • 做智能网站系统百度提交入口
  • 网站建设代理商电话网站规划和建设方案
  • 双桥区网站制作seo 首页
  • 电子商务网站建设前期准备wordpress域名指向二级目录
  • 汕头建站网站模板淮北做网站电话