当前位置: 首页 > news >正文

软件网站技术开发公司网站图标怎么下载

软件网站技术开发公司,网站图标怎么下载,手机评测网,英雄联盟网站模版文章目录 SCTNet: Single-Branch CNN with Transformer Semantic Information for Real-Time Segmentation摘要背景创新点方法Conv-Former Block卷积注意力机制前馈网络FFN 语义信息对齐模块主干特征对齐共享解码头对齐 总体架构backbone解码器头 对齐损失 实验SOTA效果对比Cit… 文章目录 SCTNet: Single-Branch CNN with Transformer Semantic Information for Real-Time Segmentation摘要背景创新点方法Conv-Former Block卷积注意力机制前馈网络FFN 语义信息对齐模块主干特征对齐共享解码头对齐 总体架构backbone解码器头 对齐损失 实验SOTA效果对比Cityscapes可视化对比 结论补充 SCTNet: Single-Branch CNN with Transformer Semantic Information for Real-Time Segmentation 论文地址: https://ojs.aaai.org/index.php/AAAI/article/view/28457 代码地址: https://github.com/xzz777/SCTNet 摘要 最近的实时语义分割方法通常采用一个额外的语义分支来追求丰富的远程上下文。然而额外的分支会带来额外的计算开销并减慢推理速度为了解决这种困境我们提出了SCTNet——一个用于实时语义分割的具有Transformer语义信息的单分支CNNSCTNet具有推理解放语义分支的丰富语义表示同时保持轻量级单分支CNN的高效率考虑到它的强大的语义能力SCTNet利用一个transformer作为只用来训练的语义分支借助所提出的transformer类CNN模块CFBlock和语义信息对齐模块SCTNet可以在训练中从transformer分支中捕获丰富的语义信息。推理阶段只有单个CNN分支需要部署。对Cityscapes、ADE20K和COCO-Stuff-10K上进行实验结果表示我们的方法达到了新的SOTA性能。 背景 最近的语义分割方法追求丰富的长程上下文信息。Transformer的自注意力机制被证明具有对长程上下文建模的显著能力。尽管这些工作得到了显著改进但也会导致高昂的计算成本。基于自注意力的工作在图像分辨率方面甚至具有平方计算复杂度这会显著增加处理高分辨率图像的延迟。最近许多实时工作采用双边架构来快速提取高质量的语义信息。BiSeNet提出了一种双边网络用于在早期阶段分离详细的空间特征和丰富的上下文信息并并行处理它们如下图a所示。BiSeNetV2和STDC做了进一步努力以增强提取丰富的长程上下文的能力或降低空间分支的计算成本。为了平衡推理速度和精度DDRNet、RTFormer和SeaFormer采用一种特征共享架构该架构在深层阶段划分空间和上下文特征如下图b所示。但是这些方法在两个分支之间引入了密集融合模块以增强提取特征的语义信息。总之所以的双边方法都由于额外的分支和多个融合模块而导致推理速度有限和计算成本高。 创新点 为了解决上述困境提出了一个用于实时分割的单分支CNN其中包含Transformer语义信息。它可以有效地提取语义信息而不会因为双边网络而繁重的计算。SCTNet从仅用于训练的Transformer语义分支学习长程上下文信息到CNN分支。为了减轻Transformer和CNN之间的语义差距设计了一个类似Transformer的CNN模块称为CFBklock。在对齐之前使用共享解码头。通过在训练中对齐的语义信息单分支CNN可以联合编码语义信息和空间细节。SCTNet可以保持轻量级单分支CNN架构在推理中的高效的同时对齐来自Transformer架构的大感受野的语义表示。整体架构如上图c表示。主图如下图所示 方法 Conv-Former Block CNN和Transformer提取的特征表示存在显著差异。直接对齐CNN和Transformer之间的特征会使学习过程变得困难导致性能提升有限。为了让CNN分支能够轻松学习到从Transformer分支中提取到的 高质量的语义信息设计了Conv-Former模块。 Cov-Former模块尽可能的模拟Transformer模块的结构以便更好地学习Transformer分支的语义信息。同时Conv-Former仅使用高效地卷积运算来实现注意力函数。 Conv-Former模块的结构类似于典型的Transformer编码器结构如下图左侧所示。其过程为: f N o r m ( x C o n v A t t e n t i o n ( x ) ) y N o r m ( f F F N ( f ) ) \begin{aligned} fNorm(xConvAttention(x))\\ yNorm(fFFN(f)) \end{aligned} fy​Norm(xConvAttention(x))Norm(fFFN(f))​ 其中 N o r m Norm Norm表示batch Normalization。 卷积注意力机制 用于实时分割的注意力机制应具有低延迟和强大的语义提取能力。GFA是一个潜在的候选方案提出的卷积注意力机制源于GFA。 GFA和提出的卷积注意力机制主要有两个区别: 将GFA的矩阵乘法替换为像素级卷积运算。点卷积等于像素到像素的乘法但不涉及特征扁平化和重塑操作。这些操作不利于保持固有的空间结构并会增加额外的推理延迟。此外卷积提高了一种更灵活的方式来扩展外部参数。由于Transformer和CNN之间的语义差距仅仅计算几个可学习向量与每个像素之间的相似性然后根据相似图和可学习向量增强像素不足以捕捉丰富的上下文信息。为了更好地对齐Transformer的语义信息将可学习向量扩展为可学习核。一方面这将像素与可学习向量之间的相似度计算转换为像素块与可学习核之间的相似性计算另一方面使用可学习核的卷积操作在某种程度上保留了更多局部空间信息。 卷积注意力的操作可以总结如下: X θ ( X ⊗ K ) ⊗ K T , X\theta(X\otimes K)\otimes K^T, Xθ(X⊗K)⊗KT, 其中 X ∈ R C × H × W X\in\mathbb{R}^{C\times H\times W} X∈RC×H×W, K ∈ R C × N × k × k K\in\mathbb{R}^{C\times N\times k\times k} K∈RC×N×k×k, K T ∈ R N × C × k × k K^T\in\mathbb{R}^{N\times C\times k\times k} KT∈RN×C×k×k分别表示输入图像和可学习的query和key。 N N N表示可学习参数的数量, k k k表示可学习参数的核大小。 θ \theta θ表示分组双重归一化它在 H × W H\times W H×W维度上应用softmax, 并在 N N N维度上应用分组 L 2 L_2 L2​归一化 ⊗ \otimes ⊗表示卷积操作。 考虑到效率, 使用条带卷积而不是标准卷积来实现卷积注意力。具体来说利用一个 1 × k 1\times k 1×k卷积核一个 k × 1 k\times1 k×1卷积来近似一个 k × k k\times k k×k卷积层。上图右侧为卷积注意力的实现细节。 前馈网络FFN 经典的FFN在提供位置编码和嵌入通道方面起着至关重要的作用。最近的Transformer模型中的FFN由扩展点卷积、深度方向 3 × 3 3\times 3 3×3卷积核压缩点卷积组成。与经典的FFN不同本文的FFN由两个标准 3 × 3 3\times 3 3×3卷积层组成。这样可以更高效并提供更大的感受野。 语义信息对齐模块 提出了一个简单而有效地对齐模块来进行训练过程中的特征学习。它可以分为主干特征对齐和共享解码器头对齐。 主干特征对齐 由于Conv-Former模块类似Transformer的架构对齐损失可以轻松地将Conv-Former模块的特征与Transformer的特征对齐。简而言之主干特征对齐首先对来自Transformer和CNN分支的特征进行下采样或上采样以进行对齐。然后将CNN的特征投影到Transformer的维度。需要统一通道数量以及避免直接对齐。直接对齐会在训练过程中破坏CNN的真实标签监督。最后将语义对齐损失应用于投影后的特征以对齐语义表示。 共享解码头对齐 Transformer解码器通常使用多个阶段的特征进行复杂解码而SCTNet解码器仅选择stage2和stage4的特征。考虑到两者之间解码空间的显著差异直接对齐解码头特征和输出logits只能获得有限的改进。因此提出共享解码头对齐。具体来说将单分支CNN的concatenation stage2和stage4特征输入到点卷积中以扩展维度。然后将高维特征通过Transformer解码器。Transformer解码器的新输出特征和logits用于计算与Transformer解码器原始输出的对齐损失。 总体架构 为了获得丰富的语义信息的同时降低计算成本将流行的两分支架构简化为一个用于推理的快速CNN分支和一个只用于训练的语义对齐的Transformer分支。 backbone 为了提高推理速度SCTNet采用典型的CNN主干网络。SCTNet起始于一个由两个连续的 3 × 3 3\times3 3×3卷积层组成的stem块。前两个阶段由堆叠的残差块组成后两个阶段包含提出的类似Transformer的块称为Conv-Former块(CFBlock)。CFBlock采用多个精心设计的卷积操作来执行与Transformer块类似的远程上下文捕获功能。在2-4阶段的开始应用一个由bacth normal和ReLU激活的步幅卷积组成的convdown层进行下采样。 解码器头 解码头由一个DAPPM和一个分割头组成。为了进一步丰富上下文信息在第4阶段的输出之后添加了一个DAPPM。然后将输出与阶段2的特征图连接起来。最后这个输出特征被传递到一个分割头。精确地说分割头由一个 3 × 3 3\times3 3×3的Conv-BN-ReLU算子后跟一个 1 × 1 1\times1 1×1卷积分类器组成。 对齐损失 为了更好地对齐语义信息 需要一种关注语义而不是空间信息的对齐损失。在实现中使用CWD损失作为对齐损失, 它显示出比其他损失函数更好地结果。CWD损失如下: ϕ ( x c ) e x p ( x c , i τ ) ∑ i 1 W ⋅ H e x p ( x c , i τ ) , L c w d τ 2 C ∑ c 1 C ∑ i 1 H ⋅ W ϕ ( x T c , i ) ⋅ log ⁡ [ ϕ ( x T c , i ) ϕ ( x T c , i ) ] , \begin{aligned} \phi(x_c)\frac{exp(\frac{x_{c,i}}{\tau})}{\sum^{W\cdot H}_{i1}exp(\frac{x_{c,i}}{\tau})},\\ L_{cwd}\frac{\tau^2}{C}\sum^C_{c1}\sum^{H\cdot W}_{i1}\phi(x^{c,i}_T)\cdot \log\left [\frac{\phi(x^{c,i}_T)}{\phi(x^{c,i}_T)}\right ], \end{aligned} ϕ(xc​)Lcwd​​∑i1W⋅H​exp(τxc,i​​)exp(τxc,i​​)​,Cτ2​c1∑C​i1∑H⋅W​ϕ(xTc,i​)⋅log[ϕ(xTc,i​)ϕ(xTc,i​)​],​ 其中 c 1 , 2 , … , C c1,2,\dots,C c1,2,…,C表示通道索引 i 1 , 2 , … , H ⋅ W i1,2,\dots,H\cdot W i1,2,…,H⋅W表示空间位置 x T x^T xT和 x S x^S xS分别表示Transformer分支和CNN分支的特征图。 ϕ \phi ϕ将特征激活转换为逐通道概率分布消除了Transformer和CNN紧凑CNN之间的尺度影响。为了最小化 L c w d L_{cwd} Lcwd​, 当 ϕ ( x T c , i ) \phi(x^{c,i}_T) ϕ(xTc,i​)很大时 ϕ ( x S c , i ) \phi(x^{c,i}_S) ϕ(xSc,i​)应该很大。但当 ϕ ( x T c , i ) \phi(x^{c,i}_T) ϕ(xTc,i​)很小时 ϕ ( x S c , i ) \phi(x^{c,i}_S) ϕ(xSc,i​)的值无关紧要。这迫使CNN学习前景显著性的分布其中包含语义信息。 τ \tau τ是一个超参数值越大概率分布就越平滑。 实验 SOTA效果对比 Cityscapes: ADE20K: COCO-Stuff-10k: Cityscapes可视化对比 结论 在本文中我们提出了SCTNet这是一种新颖的单分支架构它可以在不增加额外推理计算成本的情况下提取高质量的远程上下文。 广泛的实验表明SCTNet取得了新的最先进的结果。 此外通过证明SCTNet的效率我们为双边分支网络中的语义分支提供了一种新的见解并提供了一种新的方法来提升实时分割社区这不仅采用了Transformer的结构而且还利用了它的知识。 补充 在ImageNet-1K上进行预训练。遵循swin-transformer在ImageNet-1K上的预训练设置。
http://www.w-s-a.com/news/752493/

相关文章:

  • wordpress 支付宝打赏网站视觉优化的意义
  • 建设网站需要几个文件夹永久免费内存大服务器
  • 可信赖的手机网站建设wordpress 显示摘要
  • 谁给我一个企业邮箱认证wordpress优化攻略
  • 建站软件免费版下载涿州做网站的
  • html5网站开发西安哪家网站建设公司好
  • 怎么做网站赚广州番禺区是富人区吗
  • 服装网站推广方案戴尔网站建设成功
  • 手机网站布局国外可以用什么网站做问卷
  • 手机建网站网店logo设计图片免费
  • 装修网站有哪些wordpress外网访问错误
  • 个人做电影网站服务器放国外安全吗建设通app
  • 西安公司网站开发快站官网平台
  • 北京网站设计公司哪个好网站开发属于哪个部门
  • 现在海外做的比较好一点的网站网站报价书
  • 做整站优化漳州建网站
  • jsp网站建设期末作业搜索引擎优化的定义是什么
  • 网站建设一级页面二级页面WordPress托管如果使用插件
  • 网站导航栏设计代码织梦做泰文网站
  • 网站建设的定位是什么南通网站定制费用
  • 怎么seo网站推广能免费观看所有电视剧的app
  • 大学网站建设做网站的用什么软件呢
  • 网站建设建设公司哪家好seo网站优化推广
  • 网站服务器组建网站案例上海
  • 盘锦949公社最新招聘优化大师免费版
  • 国外有哪些网站是做弱电的中国国家培训网正规吗
  • 30分钟网站建设教程视频全屋整装120平米的多少钱
  • 生成链接的网站aso优化平台
  • 策划网站建设方案电商扶贫网站建设
  • 网站策划建设方法企业网站建设问题研究