网站设计制作程序,专门做酒店自助餐的网站,直播软件下载网站,制作网页时用的最多的是研究背景
研究问题 #xff1a;这篇文章要解决的问题是如何在杂乱的环境中快速且准确地检测抓取姿态。传统的 6自由度抓取方法将场景中的所有点视为平等#xff0c;并采用均匀采样来选择抓取候选点#xff0c;但忽略了抓取位置的重要性#xff0c;这极大地影响了抓取姿态检…研究背景
研究问题 这篇文章要解决的问题是如何在杂乱的环境中快速且准确地检测抓取姿态。传统的 6自由度抓取方法将场景中的所有点视为平等并采用均匀采样来选择抓取候选点但忽略了抓取位置的重要性这极大地影响了抓取姿态检测的速度和准确性。研究难点 该问题的研究难点包括如何在大量的 3D 空间点中快速识别出可抓取的区域以及如何在不牺牲计算资源的情况下提高抓取姿态检测的效率。相关工作 该问题的研究相关工作包括基于平面的抓取检测和 6自由度的抓取检测。现有的方法主要集中在改进抓取参数的预测质量但忽略了抓取位置的筛选问题。
研究方法
这篇论文提出了一种基于几何线索的“抓取性”graspness来解决杂乱环境中抓取姿态检测的问题。具体来说 抓取性定义 首先定义了两种抓取性分数点抓取性分数SpSp和视图抓取性分数SvSv。点抓取性分数表示每个点的抓取可能性视图抓取性分数表示每个视图的抓取可能性。 抓取性测量 通过穷举搜索未来可能的抓取姿态来评估每个点的抓取性。具体公式如下 s~ip ∑j1V∑k1L1(qki,jc)⋅1(cki,j)∑j1V∣Gi,j∣,i1,...,N,s~ip∑j1V∣Gi,j∣∑j1V∑k1L1(qki,jc)⋅1(cki,j),i1,...,N, 其中1(⋅)1(⋅)表示成功抓取的指示函数qki,jqki,j表示抓取质量分数cc表示抓取质量阈值cki,jcki,j表示碰撞标签。 级联抓取性模型 为了在实际中快速检测抓取性开发了一个名为级联抓取性模型的神经网络来近似搜索过程。该模型通过多层感知器MLP网络生成点抓取性景观并采用最远点采样FPS选择种子点然后通过另一个 MLP 网络生成视图抓取性景观。 抓取操作模型 在抓取操作模型中通过在方向性圆柱空间内裁剪和细化点云将点转换为夹爪坐标系并估计抓取参数。具体步骤包括圆柱分组、抓取生成和抓取评分表示。
实验设计
数据集 使用了 GraspNet-1Billion 数据集该数据集包含 190 个场景每个场景有 256 个不同视角的点云数据。测试场景根据对象类别分为已知、相似和新颖三类。数据处理和增强 点云数据在输入网络前进行体素下采样体素大小为 0.005 米仅包含相机坐标系中的 XYZ 数据。输入云通过随机翻转和旋转进行数据增强。实现细节 在 GraspNet-1Billion 数据集上进行实验每个点密集地标记了 300 个不同视图的抓取质量分数和每个视图的 48 个抓取。网络的骨干网络采用 ResUNet14输出通道数为 512 。在抓取性 FPS/PVS 中采样 1024 个种子点和 300 个视图阈值δPδP设置为 0.1 。圆柱分组中采样 16 个种子点圆柱半径为 0.05 米高度范围为[-0.02 米0.04 米]。损失函数中设置α,β,λ10,10,10α,β,λ10,10,10。
结果与分析 级联抓取性模型的泛化性和稳定性 在不同对象类别、视角和相机设置下的实验结果表明级联抓取性模型在不同域中具有良好的泛化性和稳定性。点抓取性预测的排名误差在不同类别和视角下变化不大视图抓取性预测的排名误差在所有组中几乎不变。 与代表性方法的比较 在 GraspNet-1Billion 数据集上的实验结果表明GSNet 在所有类别上的 AP 指标比现有方法提高了约 2倍特别是在最困难的\AP0.4\AP0.4指标上GSNet 的相对改进超过 140%。 级联抓取性模型的提升效果 将级联抓取性模型应用于现有的抓取检测方法如 GPD 、Liang et al.和 Fang et al.后这些方法的性能显著提高验证了级联抓取性模型的有效性。 不同采样方法的比较 实验结果表明使用抓取性 FPS 采样种子点比随机采样和从整个点云中采样效果更好抓取性 PVS 在视图选择中也优于其他方法。 真实抓取实验 在真实世界环境中进行的抓取实验验证了 GSNet 的有效性成功率为 78.22/76.49 、62.88/57.64 和28.97/24.04分别对应 RealSense 和Kinect 输入。
总体结论
这篇论文提出了一种基于几何线索的“抓取性”来解决杂乱环境中抓取姿态检测的问题。通过级联抓取性模型和抓取操作模型实现了快速且准确的抓取姿态检测。实验结果表明该方法在准确性和速度上均优于现有方法并且具有良好的泛化性和稳定性。该方法已被集成到 AnyGrasp 中以促进机器人社区的研究。