导读:本文是计算机视觉领域会议 ICCV入选论文《基于点云的类级别刚体与带关节物体位姿追踪(CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects from Point Clouds)》的解读。该工作由北京大学前沿计算研究中心陈宝权课题组与斯坦福大学/北京大学王鹤等合作完成,论文共同一作翁伊嘉为2021届图灵班学生。项目主页:https://yijiaweng.github.io/CAPTRA/论文地址:https://arxiv.org/abs/2104.034371
引言
在计算机视觉和机器人学中,物体位姿估计对于指导机器人抓取和操纵物体、增强现实技术中的虚拟内容叠加等应用至关重要。不同于实例级别位姿估计,本文提出的类级别位姿估计问题要求对来自已知物体类别、与训练物体存在几何差异的未知测试物体进行九自由度的位姿估计,更适用于实际应用中形状外观各异的真实物体。
方法简介
我们提出了一种首个可以同时应用于刚性物体和带关节物体,运行在类级别场景下的九自由度位姿追踪框架。给定当前帧的深度点云与上一帧的物体位姿估计,本文提出的框架能通过端到端训练,准确地更新位姿估计,在估计准确率与运行速度上都超过了已有的最好方法。
结果展示
我们的方法在多个数据集上均超过了已有方法,我们展示了一些定性结果,并详细实验设定及定量结果请参见论文。
结语
本文提出了一种端到端可微的 位姿追踪框架,可以处理类级别刚性材料和带有关节材料9自由度位置跟踪问题。在多个数据集上达到了SOTA效果。未来可能进一步利用部件限制,对带有非固定部件数量或连接关系不固定的带有关节材料类型进行拓展等方向进行研究。