做网站费用入什么科目,做网站学哪些语言,无忧主机建站的过程,销售系统软件哪个好这张图展示了一个名为“Split-Attention”的神经网络结构#xff0c;该结构在一个基数组#xff08;cardinal group#xff09;内进行操作。基数组通常指的是在神经网络中处理的一组特征或通道。图中展示了如何通过一系列操作来实现对输入特征的注意力机制。
以下是图中各部… 这张图展示了一个名为“Split-Attention”的神经网络结构该结构在一个基数组cardinal group内进行操作。基数组通常指的是在神经网络中处理的一组特征或通道。图中展示了如何通过一系列操作来实现对输入特征的注意力机制。
以下是图中各部分的解释 输入层 图中顶部有多个输入Input 1, Input 2, …, Input r这些输入的特征维度为 (h,w,c)其中 h 和 w 分别表示特征图的高度和宽度c 表示通道数。
特征聚合 这些输入特征通过一个加法操作聚合成一个特征图其维度仍然是 (h,w,c)。
全局池化 聚合后的特征图通过全局池化Global pooling操作将其空间维度即 h 和 w压缩为一个单一的值得到一个维度为 (c,) 的向量。
密集层和激活函数 这个向量通过一个密集层Dense c′ BN ReLU其中 c′ 是输出维度BN 表示批归一化Batch NormalizationReLU 是激活函数。这一步的目的是生成一个特征表示 (c′,)。
分割注意力 特征表示 (c′,) 被分割成多个部分每个部分通过一个密集层Dense c进行处理生成多个特征向量 (ci,)。
Softmax 操作 这些特征向量通过一个 r-Softmax 操作生成一组权重。Softmax 操作将这些特征向量转换为概率分布表示每个特征的重要性。
加权特征 这些权重与原始输入特征进行逐元素相乘×然后将结果相加得到最终的输出特征图其维度仍然是 (h,w,c)。
这个结构通过全局池化和密集层生成特征表示然后通过Softmax操作生成权重最后将这些权重应用于原始输入特征以实现对输入特征的注意力机制。图中为了方便可视化使用了 cC/K 的表示其中 C 是总通道数K 是基数组的数量。 这张图比较了三种不同的神经网络块SE-Net Block、SK-Net Block 和 ResNeSt Block。每种块都旨在通过不同的方法增强网络的特征提取能力。图中详细展示了这些块的结构和操作流程。
SE-Net Block 输入特征图尺寸为 (h,w,c)。 操作 通过一个 1×1 卷积层将通道数减少到 c′。 通过一个 3×3 卷积层进一步处理特征。 再次通过一个 1×1 卷积层恢复通道数到 c。 应用 Split Attention 机制。 最后通过一个加法操作将处理后的特征与原始输入特征相加。
SK-Net Block 输入特征图尺寸为 (h,w,c)。 操作 通过一个 1×1 卷积层将通道数减少到 c。 分别通过两个不同大小的卷积核3×3 和 5×5处理特征每个卷积核的输出通道数为 c′且分组数为 32。 应用 Split Attention 机制。 最后通过一个 1×1 卷积层恢复通道数到 c并与原始输入特征相加。
ResNeSt Block 输入特征图尺寸为 (h,w,c)。 操作 将输入特征分成多个基数组Cardinal groups每个基数组包含 r 个特征图。 每个基数组内特征图被进一步分割成 r 个部分每个部分通过一个 1×1 卷积层将通道数减少到 c′/k然后通过一个 3×3 卷积层处理特征。 应用 Split Attention 机制。 将处理后的特征图在每个基数组内进行拼接Concatenate然后通过一个 1×1 卷积层恢复通道数到 c。 最后通过一个加法操作将处理后的特征与原始输入特征相加。
总结
SE-Net Block通过减少和恢复通道数以及应用 Split Attention 机制来增强特征提取能力。 SK-Net Block通过使用不同大小的卷积核和 Split Attention 机制来处理特征。 ResNeSt Block通过将特征图分成多个基数组并在每个基数组内应用 Split Attention 机制然后将处理后的特征图拼接和恢复通道数以增强特征提取能力。
图中提到的 Split Attention 机制的详细视图在图 3 中展示实际实现中使用基数-主视图cardinality-major view即具有相同基数组索引的特征图组相邻放置。在补充材料中提到实际实现中使用基数-主视图可以通过分组卷积和标准 CNN 层进行模块化和加速。 图 4 展示了 ResNeSt 块的 Radix-major 实现方式。Radix-major 实现是将具有相同基数radix索引但不同基数组cardinality的特征图组物理上相邻放置。这种实现可以使用统一的 CNN 操作符来实现。
以下是图中各部分的解释
输入层 输入特征图的尺寸为 (h,w,c)。
特征图分割 输入特征图被分割成 r 个部分每个部分对应一个基数组Cardinal group。
基数组处理 每个基数组包含多个特征图每个特征图通过一个 1×1 卷积层将通道数减少到 c′/kr然后通过一个 3×3 卷积层进一步处理特征。每个基数组处理后的特征图被拼接Concatenate在一起。
全局池化 拼接后的特征图通过全局池化Global pooling操作将其空间维度即 h 和 w压缩为一个单一的值得到一个维度为 (c′,) 的向量。
密集层和激活函数 这个向量通过两个密集层Dense c′′group k 和 Dense c7group k其中 c′′ 和 c7 是输出维度group k 表示分组数为 k。
Softmax 操作 这些特征向量通过一个 r-Softmax 操作生成一组权重。Softmax 操作将这些特征向量转换为概率分布表示每个特征的重要性。
加权特征 这些权重与原始输入特征进行逐元素相乘×然后将结果相加得到最终的输出特征图其维度仍然是 (h,w,c)。
输出层 最后通过一个 1×1 卷积层恢复通道数到 c并与原始输入特征相加。
这个结构通过将输入特征图分割成多个基数组每个基数组内进行卷积操作然后通过全局池化和密集层生成特征表示再通过Softmax操作生成权重最后将这些权重应用于原始输入特征以实现对输入特征的注意力机制。图中展示的 Radix-major 实现方式使得具有相同基数索引但不同基数组的特征图组物理上相邻放置从而可以使用统一的 CNN 操作符来实现。