当前位置: 首页 > news >正文

php网站上传教程查看一个网站的备案人

php网站上传教程,查看一个网站的备案人,深圳网页设计学院,网站建设需要哪些工作Cross-Drone Transformer Network for Robust Single Object Tracking论文阅读笔记 Abstract 无人机在各种应用中得到了广泛使用#xff0c;例如航拍和军事安全#xff0c;这得益于它们与固定摄像机相比的高机动性和广阔视野。多无人机追踪系统可以通过从不同视角收集互补的…Cross-Drone Transformer Network for Robust Single Object Tracking论文阅读笔记 Abstract 无人机在各种应用中得到了广泛使用例如航拍和军事安全这得益于它们与固定摄像机相比的高机动性和广阔视野。多无人机追踪系统可以通过从不同视角收集互补的视频片段为目标提供丰富的信息特别是当目标在某些视角中被遮挡或消失时。然而在多无人机视觉追踪中处理跨无人机信息交互和多无人机信息融合是具有挑战性的。最近Transformer在自动建模视觉追踪的模板和搜索区域之间的相关性方面显示出显著的优势。为了利用其在多无人机追踪中的潜力我们提出了一种新型的跨无人机Transformer网络TransMDOT用于视觉对象追踪任务。自我注意机制用于自动捕捉多个模板与相应搜索区域之间的相关性以实现多无人机特征融合。在追踪过程中我们提出了一种**跨无人机映射机制通过使用具有良好追踪状态的无人机周围信息作为参考协助丢失目标的无人机重新校准实现实时跨无人机信息交互。由于现有的多无人机评估指标只考虑空间信息而忽略时间信息我们进一步提出了一个系统感知指数SPFI该指数结合时间和空间信息来评估多无人机的追踪状态。**在MDOT数据集上的实验证明TransMDOT在单无人机性能和多无人机系统融合性能方面都大大超越了现有最先进的方法。我们的代码将在 https://github.com/cgjacklin/transmdot 上提供。 Introduction 无人机UAVs或Drones在众多应用中扮演着重要角色如城市安全[1]、地理测绘[2]、电力巡检[3]、灾害搜救[4]等。与固定摄像机相比无人机由于其高灵活性、实时移动性、可变视角以及其他独特特性可以处理复杂和动态环境。使用无人机替代固定摄像机来处理基本视觉任务已成为发展的下一阶段。例如在复杂环境中的视野常常受到遮挡、光照变化、尺度变化和视点运动模糊等问题的影响[5]仅通过优化单摄像机感知算法难以解决极端条件下的现实问题。多无人机系统由于其互补的视角、尺度和其他元素以及广阔的视野提供了比单摄像机更丰富的信息从本质上解决了单摄像机目标丢失和特征变化的问题为解决复杂环境中的挑战性视觉问题提供了新的方法。例如在荒野和山区等复杂环境中进行搜救[6]、在基础设施建设中进行大规模质量监控[7]、建立多无人机物流配送网络[8]以及在城市安全领域实现嫌疑人追踪[9]。视觉对象追踪是计算机视觉中的一项基本任务在自动驾驶[10]、视频监控[11]、机器人视觉[12]、医学诊断[13]等方面有重要应用。其主要目标是基于初始帧中给定目标的状态连续预测后续视频帧中目标对象的状态。随着天网系统的逐渐完善使用多摄像机系统进行视觉追踪已成为研究热点。然而目前的多摄像机和跨摄像机追踪算法与多无人机系统中的算法有根本的不同。首先多无人机系统具有交叉视觉和互补信息。其次由于多无人机系统中无人机的视角和位置不断变化很难构建固定的几何关联。 最近高等人提出了一种可以在野外自主执行任务的微型无人机群体系统并实现了近地高度的稳健遮挡多无人机协同追踪[14]。然而由于分辨率低和背景干扰高高视角无人机的协同追踪仍然具有挑战性。朱等人提出了一个高视角的多无人机单一目标追踪数据集MDOT和一个基线方法ASNet通过模板共享和视角感知融合策略应用于多无人机系统[15]。ASNet基本实现了多无人机的信息整合但仍存在以下不足。首先ASNet的模板融合方案仅使用一个无人机的模板进行搜索信息利用不完整。其次当前的协作策略在长时间追踪过程中不具有多无人机之间的持续信息交互。第三仅依赖置信度的系统融合策略还有改进空间。近年来基于Transformer的追踪器在单无人机追踪任务中表现出色[16]、[17]、[18]、[19]、[20]但在多无人机单一目标追踪领域仍存在差距。 为了解决上述问题我们提出了一个基于Transformer的多无人机协同单一目标追踪框架TransMDOT它以视觉Transformer[21]为骨干利用自注意力的建模能力来自主学习多无人机模板与搜索区域之间的信息关联。同时为了充分利用跨无人机信息相互补充我们还提出了一个跨无人机映射模块能够利用具有良好追踪状态的无人机来纠正丢失目标的无人机的视角。最终的系统结果使用我们提出的SPFI分数进行融合。如图1所示MDOT数据集上的实验表明我们的TransMDOT在单无人机性能和多无人机性能方面均优于所有先前的追踪算法。在单无人机性能方面我们的算法在Two-MDOT数据集上的成功得分比之前最先进的追踪器高出1.8%在Three-MDOT数据集上的成功得分高出2%。在系统融合性能方面TransMDOT在Two-MDOT上的成功得分比ASNet高出10.8%在Three-MDOT数据集上高出10.2%[15]。我们的贡献可以总结如下• 我们提出了一个基于Transformer的多无人机协同单一目标追踪框架自动建模多个模板和搜索区域之间的关联有效处理无人机之间的信息交互。提出的追踪器TransMDOT在单无人机性能和多无人机性能方面均为新的行业标准。• 为多无人机系统设计了一种跨无人机映射机制用于对追踪状态不佳的无人机进行实时视角校正。• 提出了结合时间和空间信息的多无人机系统感知融合指数SPFI以评估每个无人机的追踪状态从而更好地整合多无人机系统的追踪结果。 Contributions: We propose a Transformer-based multi-drone collaborative single object tracking framework to automatically model the association between multiple templates and search regions, which is effective in handling information interaction among drones. The proposed tracker TransMDOT is a new state-of-the-art in terms of single drone performance and multiple drone performance. A cross-drone mapping mechanism for the multi-drone system is designed to perform real-time view correction for drones with poor tracking status. The multi-drone system perception fusion index SPFI(系统感知融合指数) that combines both temporal and spatial information is proposed to evaluate the tracking status of each drone, so as to better integrate the tracking results of the multidrone system. RELATED WORK A. Traditional Visual Object Tracking 传统的视觉对象追踪算法可以分为生成式算法和判别式算法。最近的研究主要由判别式算法主导例如以KCF [22]为代表的基于相关滤波的算法以及以SiamFC [23]、[24]、[25]、[26]、[27]为代表的基于深度孪生网络的算法这些算法将目标追踪问题转化为前景和背景的分类问题。 SiamFC [23]提出了一组具有共享参数的孪生网络并通过相互关联提取的模板和搜索区域简单高效地进行对象追踪从而生成响应图以获取高响应位置。由于对象在追踪期间倾向于外观变化固定的模板特征无法适应长时间追踪DSaim [24]提出了一种动态孪生网络可以有效地在线学习目标的外观变化并执行背景抑制。Siam R-CNN [25]结合了检测和单一对象追踪任务提出了一种基于历史轨迹的动态规划算法并改造了Faster R-CNN [28]和Cascade R-CNN [29]以实现候选目标的重新检测。 Martin等人将对象追踪分为分类和回归两个阶段分类阶段需要区分前景和背景回归阶段需要基于目标质心获得准确的边界框。他们提出的Atom通过引入IoU-Net进行回归来实现边界框预测[26]而Dimp通过训练在线更新的卷积核实现目标定位[27]。在Keep Track [30]中研究人员认为仅仅外观模型无法区分对象和干扰物因此他们提出了一种可以同时追踪所有潜在目标的追踪网络结构并在帧之间传播所有候选目标最终通过对象关联模块实现持续的帧间匹配。 B. Transformer-Based Visual Object Tracking 自2017年提出以来Transformer在自然语言处理NLP任务上取得了极大的成功[31]。随后视觉TransformerViT[21]将其引入到计算机视觉领域。随着诸如LaSOT [32]、GOT10K [33]、TrackingNet [34]、UAV123 [35]、VOT [36]等数据集的丰富和基于Transformer的模型建模能力的增强大规模预训练模型被广泛使用。Transformer强大的特征表示和建模能力使其越来越多地被用于各种下游视觉任务。许多基于Transformer的追踪器[16]、[17]、[18]、[37]、[38]、[39]、[40]在视觉追踪数据集的排行榜上占据主导地位。TransT [16]利用堆叠的自注意力和交叉注意力结构实现了基于注意力的特征融合网络设计了基于孪生网络的追踪方法首次将Transformer引入视觉对象追踪领域。离线孪生追踪器实际上是空间追踪器将视觉对象追踪任务视为模板与搜索区域的匹配并忽略了时间上下文信息。Swin-Transformer [41]使用移位窗口实现了分层注意力机制使得在计算复杂性线性增长的情况下实现不同尺度特征的建模。SwinTrack [37]随后使用Swin-Transformer作为特征提取和模板与搜索区域关系建模的主干。Stark [17]额外设计了一个在追踪过程中动态更新的动态模板将时间上下文信息整合进来然后使用Transformer实现时间和空间信息的整体整合。随着当前模型对任务特征的加强能力单一对象追踪、多对象追踪和分割的任务本质可以归纳为相同的目标即时空关联Unicorn [40]实现了对象追踪领域多个子任务的大统一使用目标先验和像素级对应解决单一对象、多对象追踪和分割任务。OStrack [18]实现了基于视觉Transformer的单流单一对象追踪框架并结合了特征提取模块和关系建模模块提供了模板与搜索区域之间相似性的强先验。 C. Multi-Camera System 当前的多摄像机系统主要指由多个固定摄像机组成的系统。随着天网系统的改进基于多摄像机系统的道路巡逻、人员重识别和对象追踪相关研究已经出现[14]、[42]、[43]、[44]。与多摄像机系统相关的研究通常分为两类有重叠和无重叠。对于无重叠的任务通常首先在单个摄像机中进行检测和追踪然后通过重识别方法进行跨摄像机目标关联。对于有重叠的场景我们通常利用它们的互补视角进行信息融合或使用多摄像机系统来优化单个摄像机的追踪精度。目前的大多数多摄像机数据集要么没有重叠要么只有短期重叠如CAMPUS [45]、MCT [46]、MTMC17 [47]和DukeMTMC [48]它们的研究主要集中在重识别[49]、[50]、[51]和多目标追踪[43]、[44]、[52]、[53]上。胡等人通过相机标定手段构建不同摄像机之间的几何关系以进行目标关联[52]、[53]。何等人将跨摄像机多目标追踪问题转化为直接的轨迹-目标关联问题以取代传统的轨迹-轨迹关联问题实现了更为稳健的身份匹配[43]。DyGLIP [44]从动态图的角度重新定义了多摄像机多目标追踪问题将多个摄像机位置之间的轨迹关联转化为图链接分配问题并使用注意力模块实现跨摄像机的长时间特征建模。 D. Multi-Drone System 由于多无人机系统需要处理复杂的信息交互和融合模式与单无人机系统相比存在更严重的问题和挑战。在近地视角下无人机具有清晰的视野、高分辨率和低背景干扰可以使用物体重识别、图像匹配等方法实现跨无人机目标校准。高等人为近地条件下的微型无人机群设计了协作轨迹优化、目标识别和集群通信以实现微型无人机群的自主任务协作[14]。相关数据集的稀缺性也导致在多无人机系统中发展稳健的追踪方法变得困难。朱等人提出了第一个多无人机单一目标追踪领域的数据集MDOT填补了这一领域的空白并提出了代理共享网络ASNet通过自监督的模板共享策略和视角融合策略实现多无人机的信息融合[15]。这是第一个完整的多无人机单一目标追踪框架为多无人机系统中后续视觉对象追踪研究提供了基准。刘等人提出了第一个多无人机多目标追踪数据集MDMT[54]。当需要同时追踪多个目标时需要在不同无人机之间进行目标ID匹配。他们提出的MIA-Net通过全局-局部最优匹配策略在多无人机系统中实现跨无人机目标ID匹配并通过变换矩阵的计算对齐不同视角有效解决了目标遮挡问题。 这里显示多无人机多/单目标目前研究者不多 METHOD 在这一部分中我们将描述我们的跨无人机Transformer网络TransMDOT它用于多无人机单一目标追踪任务能够利用多无人机信息进行协同追踪。我们还将介绍一个用于系统感知融合的指标SPFI。 A. Overview of TransMDOT However, there is not yet a Transformer architecture for multi-drone single object tracking tasks, and past multi-drone collaborations have only utilized multiple templates of information and have not enabled information interaction during tracking. 如图2所示TransMODT的框架 multi-drone Transformer module, which can automatically model the interaction between the templates and each search regioncross-mapping module, which can achieve multi-drone information complementary mechanismsystem perception fusion module for automatic fuse the tracking results of the multi-drone system. 在追踪过程中对于拥有n架无人机的追踪系统我们截取它们的模板以获得模板集Z将它们与每架无人机的搜索区域X连接在一起然后输入到视觉Transformer[21]中。然后Transformer的自注意力机制[31]可以自动建模模板与搜索区域之间的关系。 In some of the encoders, we also add the candidate elimination module to remove redundant tokens, which can speed up inference. 获得响应图S后将根据响应值判断追踪状态。当第i架无人机的目标置信度低时将应用跨无人机映射模块。该模块使用追踪状态良好的无人机周围目标的背景信息在当前无人机中进行搜索以重新划定其搜索区域并进行重新检测。在感知融合阶段我们提出了一个系统感知融合指数SPFI用于确定每一帧中每架无人机的追踪置信度以实现自动感知融合。 B. Relation Modeling for Multi-Drone System 对于一个有 n n n 架无人机的多无人机系统我们有一组模板 Z { z 1 , z 2 , … , z n } Z \{z_1, z_2, \ldots, z_n\} Z{z1​,z2​,…,zn​} 和一组搜索区域 X { x 1 , x 2 , … , x n } X \{x_1, x_2, \ldots, x_n\} X{x1​,x2​,…,xn​}。我们使用视觉变压器Vision Transformer作为骨干它接受一组图像补丁作为输入。首先将模板图像和搜索区域图像分割成补丁以获得一组补丁 z ∈ R N z × ( P 2 × 3 ) z \in \mathbb{R}^{N_z \times (P^2 \times 3)} z∈RNz​×(P2×3) 和补丁 x ∈ R N x × ( P 2 × 3 ) x \in \mathbb{R}^{N_x \times (P^2 \times 3)} x∈RNx​×(P2×3)其中 P P P 是补丁大小 N N N 是模板和搜索区域补丁的数量。之后我们使用一个可学习的线性投影层 L ∈ R ( P 2 × 3 ) × D L \in \mathbb{R}^{(P^2 \times 3) \times D} L∈R(P2×3)×D 将令牌投影到 D D D 维空间。然后我们添加可学习的一维位置编码 P z ∈ R N z × D P_z \in \mathbb{R}^{N_z \times D} Pz​∈RNz​×D 和 P x ∈ R N x × D P_x \in \mathbb{R}^{N_x \times D} Px​∈RNx​×D 到补丁嵌入中。我们可以通过方程 (1) 得到第 i i i 架无人机的令牌嵌入。 M z z ( i ) L P z M x x ( i ) L P x M_z z^{(i)}L P_z \\ M_x x^{(i)}L P_x Mz​z(i)LPz​Mx​x(i)LPx​ (公式 1) 对于每架无人机 i i i所有无人机的模板都可以用作其搜索区域的基础。在 ASNet [15] 中作者使每个模板与搜索区域通过一个接一个地相关并取最大响应值作为结果。但我们认为我们可以使用自注意力机制来自动学习多个模板和搜索区域之间的关系。因此我们将多个模板与当前无人机的搜索区域一起串联起来作为变压器编码器的输入。 U ′ i Concat ( M z ( 1 ) , M z ( 2 ) , … , M z ( n ) , M x ( i ) ) U^i \text{Concat}(M_z^{(1)}, M_z^{(2)}, \ldots, M_z^{(n)}, M_x^{(i)}) U′iConcat(Mz(1)​,Mz(2)​,…,Mz(n)​,Mx(i)​) (公式 2) 其中 i i i 是当前无人机的ID M z ( i ) M_z^{(i)} Mz(i)​ 代表无人机 i i i 的模板的令牌嵌入 M x ( i ) M_x^{(i)} Mx(i)​ 代表当前搜索区域的令牌嵌入。 1) 多无人机系统的自注意力 自注意力机制 [31] 被定义为 MultiHead ( Q , K , V ) Concat ( head 1 , … , head n ) W O head i Attention ( Q W i Q , K W i K , V W i V ) \text{MultiHead}(Q, K, V) \text{Concat}(\text{head}_1, \ldots, \text{head}_n)W^O \\ \text{head}_i \text{Attention}(QW_i^Q, KW_i^K, VW_i^V) MultiHead(Q,K,V)Concat(head1​,…,headn​)WOheadi​Attention(QWiQ​,KWiK​,VWiV​) (公式 3) 这意味着在输入令牌上应用多个自注意力机制并乘以权重 W O W^O WO。我们将它的 Q Q Q K K K V V V 视为模板矩阵和搜索区域矩阵的组合。因此对于每个自注意力操作我们可以将其写为 A Softmax ( Q K T d k ) ⋅ V Softmax ( [ Q z ( 1 ) … Q z ( n ) Q x ] [ K z ( 1 ) … K z ( n ) K x ] T d k ) ⋅ [ V z ( 1 ) … V z ( n ) V x ] A \text{Softmax} \left( \frac{QK^T}{\sqrt{d_k}} \right) \cdot V \\ \text{Softmax} \left( \frac{\begin{bmatrix} Q_z^{(1)} \ldots Q_z^{(n)} Q_x \end{bmatrix} \begin{bmatrix} K_z^{(1)} \ldots K_z^{(n)} \\ K_x \end{bmatrix}^T}{\sqrt{d_k}} \right) \cdot \begin{bmatrix} V_z^{(1)} \ldots V_z^{(n)} V_x \end{bmatrix} ASoftmax(dk​ ​QKT​)⋅VSoftmax ​dk​ ​[Qz(1)​​…​Qz(n)​​Qx​​][Kz(1)​Kx​​…Kz(n)​]T​ ​⋅[Vz(1)​​…​Vz(n)​​Vx​​] (公式 5) 其中 z z z 表示当前矩阵属于模板 x x x 表示它属于搜索区域 n n n 代表无人机的数量。我们扩展方程 (5) 中的注意力权重来获得下面的关联矩阵 Softmax ( [ Q z ( 1 ) … Q z ( n ) Q x ] [ K z ( 1 ) … K z ( n ) K x ] T d k ) Softmax ( [ Q z ( 1 ) K z ( 1 ) T … Q z ( n ) K z ( n ) T Q z ( 1 ) K x T ] d k ) ⇒ [ W z z ( 1 , 1 ) … W z z ( 1 , n ) W z x ( 1 ) … W z x ( n ) ] \text{Softmax} \left( \frac{\begin{bmatrix} Q_z^{(1)} \ldots Q_z^{(n)} Q_x \end{bmatrix} \begin{bmatrix} K_z^{(1)} \ldots K_z^{(n)} K_x \end{bmatrix}^T}{\sqrt{d_k}} \right) \\ \text{Softmax} \left( \frac{\begin{bmatrix} Q_z^{(1)}K_z^{(1)T} \ldots Q_z^{(n)}K_z^{(n)T} Q_z^{(1)}K_x^T \end{bmatrix}}{\sqrt{d_k}} \right) \\ \Rightarrow \begin{bmatrix} W_{z_z}^{(1,1)} \ldots W_{z_z}^{(1,n)} W_{z_x}^{(1)} \ldots W_{z_x}^{(n)} \end{bmatrix} Softmax ​dk​ ​[Qz(1)​​…​Qz(n)​​Qx​​][Kz(1)​​…​Kz(n)​​Kx​​]T​ ​Softmax ​dk​ ​[Qz(1)​Kz(1)T​​…​Qz(n)​Kz(n)T​​Qz(1)​KxT​​]​ ​⇒[Wzz​(1,1)​​…​Wzz​(1,n)​​Wzx​(1)​​…​Wzx​(n)​​] (公式 6) 其中每个权重 W W W 评估每两组令牌之间的关联。在自注意力之后无人机 i i i 和无人机 j j j 之间的模板关系自动建模为 W z z ( i , j ) W_{z_z}^{(i,j)} Wzz​(i,j)​模板与搜索区域之间的关系建模为 W z x i W_{z_x}^{i} Wzx​i​ 和 W x z i W_{x_z}^{i} Wxz​i​并且搜索区域内每个模板之间的关联为 W x x W_{x_x} Wxx​​。变压器编码器使得更丰富的信息交互成为可能对于一个有 n n n 架无人机的系统这样的关系矩阵有 ( n 1 ) 2 2 \frac{(n1)^2}{2} 2(n1)2​ 类。 2)多无人机系统的候选消除 基于变压器的方法在训练和推理过程中通常速度较慢因为它们的高计算复杂性。多无人机系统也因为复杂的信息交互而倾向于降低推理速度。注意力操作的计算复杂度可以写作 O Attn ∝ l 2 ⋅ d O_{\text{Attn}} \propto l^2 \cdot d OAttn​∝l2⋅d其中 l l l 表示输入令牌的长度 d d d 表示其维度。OSTrack 提出了一个候选消除模块[18]该模块根据搜索区域的注意力值对令牌进行排序并移除一些多余的令牌证明缩短令牌长度 l l l 可以加快推理速度。为了加快推理速度我们设计了一个多无人机系统的候选消除模块如图3所示。 在执行方程(6)中的自注意力操作后我们得到一组权重 W [ W z x ( 1 , 1 ) W z x ( 1 ) … W z x ( n ) ] W \begin{bmatrix} W_{z_x}^{(1,1)} W_{z_x}^{(1)} \ldots W_{z_x}^{(n)} \end{bmatrix} W[Wzx​(1,1)​​Wzx​(1)​​…​Wzx​(n)​​]我们选择注意力权重 W z x [ W z x ( 1 ) W z x ( 2 ) … W z x ( n ) ] W_{z_x} \begin{bmatrix} W_{z_x}^{(1)} W_{z_x}^{(2)} \ldots W_{z_x}^{(n)} \end{bmatrix} Wzx​​[Wzx​(1)​​Wzx​(2)​​…​Wzx​(n)​​]它代表每个模板 z z z 和相应搜索区域 x x x 之间的关系。我们认为模板的中心令牌通过自注意力整合了整体信息所以我们取模板的中心令牌的权重作为排序基准。 然后我们平均 n n n 架无人机的搜索区域令牌的注意力得分以获得平均响应 A mean A_{\text{mean}} Amean​。如方程(7)所示。对于搜索区域中的每个令牌 j j j我们有它的注意力权重 w x j w_{x}^{j} wxj​。 w x j mean ( w z x ( 1 , j ) , w z x ( 2 , j ) , … , w z x ( n , j ) ) w_{x}^{j} \text{mean}(w_{z_x}^{(1,j)}, w_{z_x}^{(2,j)}, \ldots, w_{z_x}^{(n,j)}) wxj​mean(wzx​(1,j)​,wzx​(2,j)​,…,wzx​(n,j)​) (方程 7) 其中 w z x ( 1 , j ) w_{z_x}^{(1,j)} wzx​(1,j)​ 是第 i i i 架无人机模板的中心令牌到当前搜索区域的注意力权重 w x j w_{x}^{j} wxj​ 是相对于第 j j j 个token的系统的综合注意力权重。 得分较高的令牌更可能包含目标。因此我们保留得分最高的 k % k\% k% 令牌作为 M x ∗ M_x^* Mx∗​ 并移除其他如下 M x ∗ Top K ( M x ) M_x^* \text{Top}_K (M_x) Mx∗​TopK​(Mx​) (方程 8) 通过这种方式我们可以获得更短的令牌 U ∗ U^* U∗ 进入后续的编码器在连接保留的搜索区域令牌和模板令牌之后 U ∗ Concat ( M z ( 1 ) , M z ( 2 ) , … , M z ( n ) , M x ∗ ) . U^* \text{Concat}(M_z^{(1)}, M_z^{(2)}, \ldots, M_z^{(n)}, M_x^*). U∗Concat(Mz(1)​,Mz(2)​,…,Mz(n)​,Mx∗​). (方程 9) C. Cross-Drone Mapping(没懂) 在追踪过程中追踪器经常会因为光照变化、尺度变化和无人机的移动旋转而追踪错误的目标。由于目标的低分辨率和快速移动目标可能突然完全跑出搜索区域导致长期目标丢失。最好的解决方案是重新定位搜索区域这对单架无人机来说很难实现。 我们设计了一个跨无人机映射机制用于执行实时的跨无人机信息交互允许追踪状态良好的无人机指导失去目标的无人机重新找到目标如图4所示。跨无人机映射利用多无人机系统目标周围相似的背景并使用两阶段定位方法从粗定位到精定位。首先通过跨无人机参考重新定义丢失无人机的搜索区域。然后基于多个模板进行精确定位目标追踪实现实时的跨无人机信息交互。 对于无人机 i i i我们设置如下的跨无人机映射激活条件。对于任何满足方程 ( 10 ) (10) (10) 中条件的帧 t t t我们认为需要重新定位。 { s max ( i ) δ , A P C E ( i ) ϵ , \left\{ \begin{array}{ll} s_{\text{max}}^{(i)} \delta, \\ APCE^{(i)} \epsilon, \end{array} \right. {smax(i)​δ,APCE(i)ϵ,​ (方程 10) 其中 s max ( i ) s_{\text{max}}^{(i)} smax(i)​ 是无人机 i i i 的最大响应值APCE[55] 是由响应图 S S S 计算出的指标 δ \delta δ 和 ϵ \epsilon ϵ 是阈值。 如果有一个追踪状态良好的无人机 j j j其 s max δ ∗ s_{\text{max}} \delta^* smax​δ∗那么我们将从无人机 j j j 对无人机 i i i 应用跨无人机映射。我们裁剪图像集 R { R a , R b , … } R \{R_a, R_b, \ldots\} R{Ra​,Rb​,…} 在无人机 j j j 的目标中心作为参考其中 { a , b , … } \{a, b, \ldots\} {a,b,…} 是不同尺度的搜索候选区域集合 X { X a , X b , … } X \{X_a, X_b, \ldots\} X{Xa​,Xb​,…}包含上一帧中心生成的不同尺度锚点以及一些预定义位置。然后我们在每个候选区域中应用两阶段定位。首先我们根据参考 R R R 重新定位 X X X 中的搜索区域以获得最高响应分数的重新定位搜索区域 X i ∗ X_i^* Xi∗​其周围环境与相应无人机的目标相似。其次我们使用B节中的方法在新的搜索区域中追踪目标。之后我们将得到一系列结果边界框 B { b 1 , b 2 , … , b n , b t − 1 } B \{b_1, b_2, \ldots, b_n, b_{t-1}\} B{b1​,b2​,…,bn​,bt−1​}。其中 b t − 1 b_{t-1} bt−1​ 是前一帧 t − 1 t-1 t−1 的追踪结果。集合 B B B 中响应分数最大的将被选为第 t t t 帧的结果。 D. System Perception Fusion Index 除了单一无人机的性能指标之外多无人机系统还有代表整体系统追踪性能的指标AFS[15] A F S 1 T ∑ t 1 T ∑ i 1 n w t ( i ) Φ ( h t ( i ) , y t ( i ) ) , AFS \frac{1}{T} \sum_{t1}^{T} \sum_{i1}^{n} w_t^{(i)} \Phi(h_t^{(i)}, y_t^{(i)}), AFST1​t1∑T​i1∑n​wt(i)​Φ(ht(i)​,yt(i)​), (公式 11) 其中 t t t 是帧号 i i i 是无人机ID w t ( i ) ∈ { 0 , 1 } w_t^{(i)} \in \{0, 1\} wt(i)​∈{0,1} 代表由融合方法得到的无人机的权重 Φ \Phi Φ 是单一目标追踪指标如AUC, 精度等 h t ( i ) h_t^{(i)} ht(i)​ 代表第 i i i 架无人机在第 t t t 帧的追踪结果 y t ( i ) y_t^{(i)} yt(i)​ 代表相应的真实标签。 为了获得最佳的系统追踪结果问题转化为找到每一帧 t t t 最佳的无人机结果 max ⁡ ( A F S ) max ⁡ ( 1 T ∑ t 1 T ∑ i 1 n w t ( i ) Φ ( h t ( i ) , y t ( i ) ) ) , \max (AFS) \max \left( \frac{1}{T} \sum_{t1}^{T} \sum_{i1}^{n} w_t^{(i)} \Phi(h_t^{(i)}, y_t^{(i)}) \right), max(AFS)max(T1​t1∑T​i1∑n​wt(i)​Φ(ht(i)​,yt(i)​)), (公式 12) 在追踪过程中我们无法知道真实的 y y y所以我们需要一个评价指标来评估每一帧每架无人机的追踪状态。在过去的方法中多无人机追踪算法ASNet[15]使用响应图 S S S 的最大值作为排名基准。包含最大响应值的无人机被选为当前帧的追踪结果进行自动融合。在单无人机视觉追踪算法中APCE[55] 被视为确定追踪状态是否有效的最佳方法并且经常用于重新检测方法。这些方法只使用当前帧的响应图进行计算这意味着它们没有利用时间信息。 我们认为良好的追踪时期应该在时间序列上保持响应图相对稳定。因此我们提出一个多无人机系统感知融合指标SPFI来指导多无人机系统的自动融合 S P F I ( μ β − γ σ β ) ∣ S max − S min ∣ mean ( ∑ w , h ( S w , h − S min ) 2 ) , SPFI \frac{(\mu^{\beta} - \gamma \sigma^{\beta}) |S_{\text{max}} - S_{\text{min}}|}{\text{mean} \left( \sum_{w,h} (S_{w,h} - S_{\text{min}})^2 \right)}, SPFImean(∑w,h​(Sw,h​−Smin​)2)(μβ−γσβ)∣Smax​−Smin​∣​, (公式 13) 其中 S max S_{\text{max}} Smax​ 是当前帧响应图的最大值 S min S_{\text{min}} Smin​ 是最小值 S w , h S_{w,h} Sw,h​ 是响应图在行 w w w列 h h h 的响应值 γ \gamma γ 是权重参数 μ \mu μ 和 σ \sigma σ 是从过去 β \beta β 帧的响应图中计算出来的 μ t β mean ( g ( S t ) , g ( S t − 1 ) , … , g ( S t − ( β − 1 ) ) ) , \mu_t^{\beta} \text{mean} (g(S_t), g(S_{t-1}), \ldots, g(S_{t-(\beta-1)})), μtβ​mean(g(St​),g(St−1​),…,g(St−(β−1)​)), (公式 14) σ t β var ( g ( S t ) , g ( S t − 1 ) , … , g ( S t − ( β − 1 ) ) ) . \sigma_t^{\beta} \text{var} (g(S_t), g(S_{t-1}), \ldots, g(S_{t-(\beta-1)})). σtβ​var(g(St​),g(St−1​),…,g(St−(β−1)​)). (公式 15) g ( S t ) g(S_t) g(St​) 代表第 t t t 帧响应图的响应值函数。我们使用最大响应值作为我们实验中的指标。 μ \mu μ 是过去 β \beta β 帧的响应均值 σ \sigma σ 是响应方差。从公式 (13) 可以得出在追踪时期内如果当前帧的响应均值大且方差小那么置信度权重 ( μ β − γ σ β ) (\mu^{\beta} - \gamma \sigma^{\beta}) (μβ−γσβ) 将会更高。对于一个有 n n n 架无人机的多无人机系统我们分别计算它们每一帧的SPFI值并将最大SPFI得分的无人机结果作为系统融合结果 h t ∗ argmax ( Ψ S P F I ( S t 1 , … , S t 1 − ( β − 1 ) ) , … , Ψ S P F I ( S t n , … , S t n − ( β − 1 ) ) ) , h_t^* \text{argmax} (\Psi_{SPFI} (S_t^{1}, \ldots, S_t^{1-(\beta-1)}), \ldots, \Psi_{SPFI} (S_t^{n}, \ldots, S_t^{n-(\beta-1)})), ht∗​argmax(ΨSPFI​(St1​,…,St1−(β−1)​),…,ΨSPFI​(Stn​,…,Stn−(β−1)​)), (公式 16) 其中 h t ∗ h_t^* ht∗​ 是第 t t t 帧的系统追踪结果 S t i S_t^{i} Sti​ 代表第 i i i 架无人机在第 t t t 帧的响应图 Ψ S P F I \Psi_{SPFI} ΨSPFI​ 计算每架无人机的SPFI得分。
http://www.w-s-a.com/news/231962/

相关文章:

  • 做网站可以用哪些语言如何进行网站运营与规划
  • 做效果图网站有哪些电子商城网站制作数据库
  • 小刘网站建设wordpress调用php文件上传
  • 建设银行对账网站网络营销广告案例
  • 做网站开票是多少个点的票wordpress扫码提交数据库
  • 织梦网站改版需要怎么做企业网站备案管理系统
  • 大规模网站开发语言宁夏建设职业技术学院网站
  • 寻花问柳专注做一家男人爱的网站北京展台设计制作
  • 中卫网站设计做自己的卡盟网站
  • 广州网站推广自助做网站人家直接百度能搜到的
  • 电子商务网站建设目标及利益分析安徽建设厅网站施
  • 制作网站策划书网站建设公司的性质
  • 哪个网站可以做免费宣传简单的网页设计网站
  • 福州专业网站制作公司金湖建设局网站
  • 好的移动端网站模板下载兰州线上广告推广
  • 宁波高端建站深圳品牌营销策划机构
  • 权威网站优化价格建设厅科技中心网站首页
  • 保定模板建站软件腾讯云做淘客网站
  • 单位建设一个网站的费用正规刷手机单做任务网站
  • 北京定制网站价格开网店怎么卖到外国
  • 做网站 后端是谁来做的工程建设指挥部网站
  • wordpress建站 云打印昆明 网站设计
  • 太原网站建设设计网站建设策划书(建设前的市场分析)
  • 哪里有制作网站电商新手入门知识
  • 制作网站的后台文昌网站建设 myvodo
  • 网站 购买移动网站制作
  • 南京网站网站建设学校英山做网站多少钱
  • 珠海网站建设网如何注册公司公众号
  • 手机网站页面制作网站怎么做快照
  • asp网站怎么仿站推广软件下载平台