网站认证空间,工作需要原则和最小化原则是确定国家秘密知悉范围,wordpress大主题,网站教育培训机构概述
近日#xff0c;全球机器人领域顶会ICRA 2025#xff08;IEEE机器人与自动化国际会议#xff09;公布论文录用结果#xff0c;地瓜机器人主导研发的DOSOD开放词汇目标检测算法与MODEST单目透明物体抓取算法成功入选。前者通过动态语义理解框架提升复杂场景识别准确率…概述
近日全球机器人领域顶会ICRA 2025IEEE机器人与自动化国际会议公布论文录用结果地瓜机器人主导研发的DOSOD开放词汇目标检测算法与MODEST单目透明物体抓取算法成功入选。前者通过动态语义理解框架提升复杂场景识别准确率后者结合几何建模与语义分析技术优化透明物体操作精度两项技术成果均已在规模化商业场景中得到有效验证。此次投稿的两篇论文全部入选不仅彰显了ICRA对机器人感知领域的高度重视同时也印证了地瓜机器人团队在机器人视觉领域的领先优势。
P.S. 点击超链跳转了解DOSOD开放词汇目标检测算法本期文章将围绕MODEST单目透明抓取算法进行重点介绍。
作为机器人执行各项任务中绕不开的操作对象水杯、试管、窗户等透明物体在人类生活中无处不在。从精密制造、医疗实验室和家庭服务机器人等领域透明物体的精确操作是提升自动化和智能化水平的关键。然而透明物体复杂的折射和反射特性给机器人感知造成了很大困难。在大多数RGB图像中的透明物体往往缺乏清晰的纹理而容易与背景混为一体。此外商用深度相机也难以准确捕捉这些物体的深度信息导致深度图缺失或噪声过多从而限制了机器人在多个领域的广泛应用。
为了解决透明物体的抓取问题地瓜机器人联合中科院自动化所简称CASIA多模态人工智能系统全国重点实验室推出了针对透明物体的单目深度估计和语义分割的多任务框架简称MODEST。该框架借助创新性的语义和几何融合模块结合独特的特征迭代更新策略显著提升了深度估计和语义分割的效果尤其在抓取成功率和系统泛化性方面取得了突破性进展。
MODEST算法框架作为通用抓取模型的前置模块即插即用灵活高效且无需依赖额外传感器仅靠单张RGB图像便可实现透明物体的抓取效果上甚至要优于其它双目和多视图的方法可以广泛应用于智能工厂、实验室自动化、智慧家居等场景降低设备成本并大幅提升机器人对透明物体的操作能力。
文章地址https://arxiv.org/pdf/2502.14616
代码地址https://github.com/D-Robotics-AI-Lab/MODEST 基本原理
当前透明物体的抓取核心在于深度信息的获取目前无论是深度传感器还是多视角重建的方法都无法获取透明物体准确完整的深度信息。为了解决透明物体感知难题传统方法大多依赖特殊传感设备或多视角图像增加了时间和经济成本并常常受限于应用场景。MODEST单目框架首次突破了传统传感器处理透明物体时的限制降低了设备成本和使用复杂度提供了更加高效、经济和便捷的透明物体感知方案。 单目透明物体感知框架与其他方法之间的对比 MODEST主要聚焦于透明物体的深度估计通过设计的语义和几何结合的多任务框架获取物体准确的深度信息之后结合基于点云的抓取网络实现透明物体的抓取。相当于在通用抓取网络前面增加一个针对透明物体的增强模块。 MODEST模型的整体架构如图所示输入为单目RGB图像输出为透明物体的分割结果和场景深度预测。网络主要由编码、重组、语义几何融合和迭代解码四个模块组成。输入图像首先经过基于ViT的编码模块进行处理随后重组为对应分割和深度两个分支的多尺度特征。在融合模块中对两组特征进行混合和增强最后通过多次迭代逐步更新特征并获得最终预测结果。 基于语义几何融合和迭代策略的透明物体单目多任务框架 对于透明物体来说语义分割任务可以为深度估计提供语义和上下文信息而同样深度估计可以为分割提供边界、表面等几何信息。为了充分挖掘两个任务间的互补信息MODEST算法框架构建了基于注意力机制的语义几何融合模块旨在同时提升两个任务的性能。
语 义几何融合模块结构 当人类观察透明物体等不显著物体时我们会倾向于先注意物体的整体轮廓然后是局部细节。受人眼启发MODEST框架提出了一种由粗到细的特征更新策略进一步提升预测精度。 实验结果 为了测试MODEST全新算法框架的检测效果我们选取了透明物体领域两个影响力广泛的公开仿真数据集Syn-TODD和真实数据集ClearPose在其上与目前最先进的透明物体双目方法SimNet、多视图方法MVTran以及多任务方法InvPT和TaskPrompter进行对比实验。两个大规模数据集都拥有超过100k的良好标注图像数据并且包含了严重遮挡等极端场景。 公开数据集上的定性和定量对比实验 仿真数据集Syn-TODD上的定性对比结果 真实数据集ClearPose上的定性对比结果 通过在两个数据集上的定性对比结果可以看出由于透明物体会错误地折射背景并且在RGB图像中缺乏纹理因此SimNet、MVTrans等方法无法获得令人满意的预测从而导致深度图和分割掩膜的大面积缺失。然而通过有效的融合和迭代在某些即使人眼都难以分析和判断的场景我们的方法依然能够产生完整和清晰的预测结果。 仿真数据集Syn-TODD上的定量对比结果 真实数据集ClearPose上的定量对比结果 从表格中的定量对比可以看出MODEST算法框架在各项指标上都要大幅超过其他所有方法。值得注意的是尽管只使用单张RGB图像作为输入MODEST在深度估计和语义分割方面都要明显优于其他双目甚至多视图方法。并且在Syn-TODD数据集上与排名第二的方法相比MODEST算法框架在RMSE和REL两项指标有着超过45%的提升语义分割的精度也均超过了90%。 真实平台抓取实验
我们将算法迁移到真实机器人平台开展了透明物体抓取实验。平台主要由UR机械臂和深度相机构成在借助MODEST方法进行透明物体精确感知的基础之上采用GraspNet进行抓取位姿的生成。在多个透明物体上的实验结果表明MODEST方法在真实平台上具有良好的鲁棒性和泛化性。