> 文章列表 > CVPR2020:训练多视图三维点云配准

CVPR2020:训练多视图三维点云配准

CVPR2020:训练多视图三维点云配准

CVPR2020:训练多视图三维点云配准

Learning Multiview 3D Point Cloud Registration

源代码和预训练模型:https://github.com/zgojcic/3D_multiview_reg

论文地址:

https://openaccess.thecvf.com/content_CVPR_2020/papers/Gojcic_Learning_Multiview_3D_Point_Cloud_Registration_CVPR_2020_paper.pdf

摘要

提出了一种新的、端到端可学习的多视点三维点云配准算法。多个扫描的配准通常遵循两个阶段的流程:初始成对对齐和全局一致优化。前者由于相邻点云重叠程度低、对称性强、场景部分重复等原因,往往具有模糊性。因此,后一种全局求精旨在建立跨多个扫描的循环一致性,并有助于解决不明确的情况。在本文中,我们提出了第一个端到端的算法来联合学习这两个阶段的问题。对已被广泛接受的基准数据集进行的实验评估表明,我们的方法在可训练性和计算成本方面显著优于最新水平。此外,我们提出了详细的分析和消融研究,验证了我们的方法的新组成部分。

1.介绍

三维计算机视觉中的下游任务,如语义分割和目标检测,通常需要场景的整体表示。因此,将单个点云碎片(仅覆盖环境的一小部分)对齐和融合为全球一致的整体表示的能力至关重要,在增强现实和机器人技术中有多个用例。相邻片段的成对配准是一个研究得很好的问题,基于几何约束的传统方法[51,66,56]和手工设计的特征描述子[37,27,54,59]在一定程度上取得了成功的结果。然而,近年来,对于三维点云成对配准的局部描述符的研究主要集中在深度学习方法[67、38、21、64、19、28]上,这些方法成功地捕获和编码了隐藏在手工设计的描述符中的证据。此外,最近提出了一种新的端到端点云配准方法[62,42]。虽然在许多任务中表现出良好的性能,但场景的个别视图的成对配准在概念上有一些缺点:(i)相邻点云的低重叠会导致不准确或错误的匹配,(ii)点云配准必须依赖非常局部的证据,如果3D场景结构稀少或重复,这可能是有害的,(iii)需要单独的后处理来将所有成对匹配组合成全局表示。与成对方法相比,无组织点云碎片的全局一致多视图对齐尚未完全受益于深度学习方法的最新进展。最先进的方法通常仍然依赖于成对映射的良好初始化,它们试图在随后的分离步骤中全局重新定义成对映射[30、61、2、3、5、4、43、11]。这种分层过程的一个普遍缺点是,在姿势图的所有节点上的全局噪声分布最终远离随机,即由于高度相关的初始成对映射,显著的偏差持续存在。在本文中,我们提出了第一种端到端数据驱动的多视点云配准算法。我们的方法以一组可能重叠的点云作为输入,并为每个输入扫描输出一个全局/绝对变换矩阵(c.f.图1)。我们脱离了传统的两阶段方法,即各个阶段彼此分离,直接学习以全局一致的方式配准场景的所有视图。我们工作的主要贡献是:

详细 的请参考这个链接,人家写的很好

CVPR2020:训练多视图三维点云配准 (bbsmax.com)

类似的连接

点云配准的端到端深度神经网络:ICCV2019论文解读 (bbsmax.com) 

CVPR2020:三维点云无监督表示学习的全局局部双向推理 (bbsmax.com) 

目标形体形状轮廓重建:ICCV2019论文解析 (bbsmax.com)