ICCV 2023 | 实现实时六自由度物体跟踪,深度主动轮廓模型DeepAC来了

2023-10-27 11:17 390 阅读 ID:1556
机器之心
机器之心

本文介绍了一篇由国防科技大学刘煜教授团队和浙江大学 - 商汤联合实验室周晓巍教授团队联合撰写的论文《Deep Active Contours for Real-time 6-DoF Object Tracking》,该论文已被计算机视觉与人工智能顶尖国际会议 ICCV 2023 录用。仅需要提供 CAD 框架模型,就可以在多种光照条件和局部遮挡情况下实现对立体物体的实时跟踪。传统的基于优化的方法根据手工特征将物体 CAD 模型的投影与查询图像对齐来求解位姿,容易陷入局部最优解;最近的基于学习的方法使用深度网络来预测位姿,但其要么预测精度有限,要么需要提供 CAD 纹理模型。

为此,研究员王龙和博士生颜深创新性地提出一种解决方案 DeepAC。DeepAC 结合了传统方法和深度学习方法的优势,提出了一个深度主动轮廓模型,以解决六自由度物体跟踪的问题。给定初始位姿,首先物体 CAD 模型会投影到图像平面上以获得初始轮廓,然后一个轻量级网络用于预测该轮廓应如何移动,以匹配图像中物体的真实边界,从而为物体位姿优化提供梯度。最后,提出了一种可微的优化算法,可以使用物体位姿真值端到端监督训练所提模型。在半合成和真实六自由度物体跟踪数据集上的实验结果表明,所提模型在定位精度方面大幅超过了当前最先进方法,并在移动端达到了实时性能。

  • 论文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Wang_Deep_Active_Contours_for_Real-time_6-DoF_Object_Tracking_ICCV_2023_paper.pdf
  • 项目主页:https://zju3dv.github.io/deep_ac/

背景

目前主流的六自由度物体跟踪方法分为基于关键点、基于边缘和基于区域三类。基于关键点的方法通过在二维图像和三维物体模型之间匹配关键点特征,来求解物体位姿;基于边缘的方法利用边缘信息 (显式或隐式) 计算两幅连续图像之间的相对位姿;基于区域的方法利用物体区域与背景区域在颜色统计上的区别,来求解物体位姿。然而,上述基于优化的方法存在一个共同缺点:它们需要手工设计特征和细致调整超参数,使其不能稳健地应用于各类真实场景。

近年来,一些端到端学习方法被提出以增强六自由度物体定位的鲁棒性,包括:直接回归几何参数;采用渲染 - 比对来迭代地优化位姿。尽管基于学习的方法具有潜力,但是直接回归法精度有限、泛化能力差;而渲染 - 比对法计算量大、不适用于实时应用,且需要提供带纹理的 CAD 模型。如何结合了传统优化方法和基于学习方法的优势,能够仅在 CAD 网格模型引导下,准确、鲁棒、实时地求解物体位姿,是一个亟待解决的问题。

六自由度物体跟踪的相关工作

1 基于优化的六自由度物体跟踪方法

基于优化的方法常用于解决六自由度物体跟踪问题,具体可以分为三种不同的类别:基于关键点 (Keypoint)、基于边缘 (Edge) 和基于区域 (Region)。基于关键点的方法利用局部特征匹配或光流技术建立 2D-3D 对应关系。虽然这种方法表现出了出色的性能,但它需要提供物体的纹理模型。为了解决这个问题,研究人员提出了基于边缘的方法,通过隐式或显示地分析物体边缘位移,判断物体六自由度位姿变化。例如,RAPiD 通过在投影边缘的正交方向上搜索最大梯度,来估计连续帧之间的相对位姿。然而,基于边缘的方法处理不好背景有杂物和运动模糊的情况。

这几年,基于区域的方法在复杂环境的跟踪任务中取得了显著进展。该研究最早可以追溯到 PWP3D 的工作,其有效地结合了前背景分割的统计模型和物体投影的边界距离场来优化物体位姿。近年来,RBGT 引入了多视角预计算的稀疏对应线 (Correspondence lines),建立符合了高斯分布的概率模型,并使用牛顿法快速收敛到物体位姿。SRT3D 引入了平滑的阶跃函数,考虑到全局和局部不确定性,相较于现有方法有明显改进。然而,基于区域的物体连续位姿估计算法会受到人工定义的特征和超参数限制。

2 基于学习的六自由度物体跟踪方法

近年来,深度学习方法在六自由度物体姿态估计领域取得了显著进展。其中一种方法是直接预测旋转和平移参数。另一种方法则是通过检测或回归物体坐标生成 2D-3D 对应关系,进而使用 PnP 求解器估计六自由度位姿。然而,仅通过单个网络预测物体位姿,其输出往往不准确。

为了克服这个问题,一些研究采用迭代优化的技术以取得更精确的结果。这类方法的关键是迭代的 “渲染 - 比对” 思想。在每次迭代中,利用当前估计的物体位姿渲染三维纹理模型,然后将渲染图像与实际图像进行比较,并用神经网络更新位姿,从而使两者逐渐对齐。目前,基于学习的方法的主要不足是需要使用 GPU,这使得它们不适合在移动应用程序中部署,例如虚拟现实、增强现实应用。此外,这类方法需要提供物体的纹理模型,但在实际任务中,用户预先获取的往往是一个三维扫描或者人工设计的 CAD 网格模型。

方法

1 轮廓特征图提取

2 边界图预测

3 位姿优化

为了最大化该似然估计,本小节采用了迭代牛顿法和 Tikhonov 正则化来优化位姿求解。具体的位姿更新方式如下:

4 网络监督

其中,P是 Huber 鲁棒核函数。为了避免困难样例对模型训练产生不利影响,论文采用了条件损失函数:只有在前一次迭代优化后所得的位姿在真实解附近时,才将其纳入损失函数的计算中;如果某次迭代优化后所得的位姿偏离真实解过大,则忽略其对应的损失项。这样可以保证模型只使用可信度高的训练样本。 

结果

1 与基于优化的方法比较

(1)RBOT 数据集

在 RBOT 数据集上,论文采用 5cm−5◦召回率,来评估定位的精度。具体而言,每一帧图像是否被成功定位取决于其平移误差是否小于 5cm 且旋转误差是否小于 5◦。

实验结果表明,在常规、动态光照和场景遮挡下,现有的基于优化的方法已经非常接近性能上限,SRT3D 和 LDT3D 的 5cm−5◦召回率已接近或超过 95%。在这三种情况下,DeepAC 表现出了相似的性能,在常规和动态光照情况下小幅领先,在场景遮挡情况下略微落后。但是,在噪声情况下,所提方法显著优于其他基于优化的方法,5cm−5◦召回率从 83.2% 提高到 88.0%,这一结果证明了 DeepAC 对图像噪声具有较强的鲁棒性。

(2)BCOT 数据集

论文在 BCOT 数据集上对所提方法进行了实验验证,并采用 ADD-(s) d 和厘米 - 度召回率来评估位姿估计的精度。与在 RBOT 数据集上进行的实验不同,在 BCOT 数据集上,增加了一些更严格的评价指标,即 ADD-0.02d、ADD-0.05d、 ADD-0.1d 以及 2cm−2◦召回率,以评估算法的高精度定位能力。其中,d 表示物体模型 3D 包围盒的最大长度。

实验结果表明,DeepAC 在所有阈值下的 ADD-(s) d 和厘米 - 度召回率均优于其他基于优化的基线方法。特别是,在非常严格的 ADD-(s) d 标准下,所提方法表现出显著的优势,相比于排名第二的 LDT3D,在 ADD-0.02d、ADD-0.05d 和 ADD-0.1d 上分别提高了 9.1 个百分点、14.1 个百分点和 9.6 个百分点。这些结果充分表明了 DeepAC 具有高精度定位的能力。

(3) OPT 数据集

在 OPT 数据集上,论文先计算不同误差阈值 s 下的 ADD-(s) d 得分,再通过计算曲线下面积 (AUC) 得分来衡量视频序列中物体位姿估计的质量。其中,误差阈值 s 的范围设定为 [0, 0.2]。

下表显示了 DeepAC 在六个物体上均优于当前最先进的基于优化的方法,在 AUC 分数上取得了明显提升。在平均 AUC 分数方面,DeepAC 达到 16.69,比排名第二的方法 SRT3D 高出 6.10%。这些结果表明 DeepAC 在真实场景下具有优异的跟踪能力。 

2 与基于学习的方法比较

为了验证 DeepAC 模型在不同数据集上具有很好的泛化能力,论文在 RBOT 数据集上与当前最先进的基于学习的方法进行了对比实验。论文选取了除 “Clown” 物体外 (因为其纹理图有误) 所有序列作为测试集,并使用平均 ADD-(s) d 和厘米 - 度召回率作为评估指标。为了与其他基于学习的方法公平比较,所提方法 DeepAC 使用相同的训练数据和方式,并记作 DeepAC−。

实验结果显示,其他典型的基于学习的方法定位精度远低于 DeepAC,这充分说明了 DeepAC 在不同数据集上具有很强大且稳定的泛化能力。

3 消融分析

论文通过消融实验分析 DeepAC 中三个主要的设计对物体六自由度定位性能的影响,分别是:1) 统计信息融入;2) 多层特征提取;3) 边界不确定性估计。实验在 RBOT 和 BCOT 数据集上进行,并将结果展示在下表。

应用前景

该研究成果在民用和军事领域都有广泛的应用。在民用领域,该研究可用于强现实、机器人操作和人机交互等众多应用。在军事领域,该研究可用于支持空中无人装备与巡飞弹在复杂光照条件下对目标的多角度实时跟踪与打击。

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn