首页   

8倍加速!DELTA:高效跟踪3D空间中的每个像素!SLAM思路打开~

3DCV  · 科技创业 科技自媒体  · 3 天前

点击下方卡片,关注「3DCV」公众号
选择星标,干货第一时间送达

来源:3DCV

0. 论文信息

标题:DELTA: Dense Efficient Long-range 3D Tracking for any video

作者:Tuan Duc Ngo, Peiye Zhuang, Chuang Gan, Evangelos Kalogerakis, Sergey Tulyakov, Hsin-Ying Lee, Chaoyang Wang

机构:Snap Inc、UMass Amherst、TU Crete、MIT-IBM Watson AI Lab

原文链接:https://arxiv.org/abs/2410.24211

代码链接:https://github.com/xxx(soon)

官方主页:https://snap-research.github.io/DELTA/

1. 导读

从单目视频中跟踪密集的3D运动仍然具有挑战性,特别是在长序列上以像素级精度为目标时。我们引入了DELTA,这是一种新颖的方法,可以有效地跟踪3D空间中的每个像素,实现整个视频的精确运动估计。我们的方法利用联合全局-局部注意机制进行低分辨率跟踪,然后利用基于变压器的上采样器来实现高分辨率预测。与受计算效率低下或稀疏跟踪限制的现有方法不同,DELTA提供大规模密集3D跟踪,运行速度比以前的方法快8倍以上,同时达到最先进的精度。此外,我们探讨了深度表示对跟踪性能的影响,并确定测井深度是最佳选择。大量实验证明了DELTA在多个基准测试中的优势,在2D和3D密集跟踪任务中实现了新的最先进的结果。我们的方法为需要在3D空间中进行精细、长期运动跟踪的应用提供了一个健壮的解决方案。

2. 动机

现有的运动预测方法难以进行短期、稀疏的预测,并且经常不能提供精确的3D运动估计,而基于优化的方法需要大量时间来处理单个视频。我们是第一个能够高效地跟踪每个像素在三维空间超过数百帧从单目视频,并实现最先进的精确度关于3D跟踪基准。

3. 效果展示

DELTA以前馈方式从视频中捕捉密集、长距离的3D轨迹。

4. 主要贡献

我们的关键设计选择包括:

• 一种高效的空间注意力架构,该架构能够捕获密集轨迹的全局和局部空间结构,同时保持较低的计算复杂度,从而实现密集跟踪的端到端学习。

• 一种基于注意力的上采样器,经过精心设计,能够提供高分辨率、准确的跟踪,并具有清晰的运动边界。

• 对各种深度表示进行了全面的实证分析,结果表明,对数深度表示能够获得最佳的3D跟踪性能。

这些设计使DELTA能够在单次前向传递中捕获长视频序列中的数十万条3D轨迹,对于100帧的视频,处理过程在两分钟内完成,比现有最快的方法快8倍以上,如图1所示。DELTA在2D和3D密集跟踪任务上进行了广泛评估,在CVO和Kubric3D数据集上均取得了最先进的结果,AJ和APD3D指标提升了10%以上。此外,它在传统的3D点跟踪基准上表现也具有竞争力,包括TAP-Vid3D和LSFOdyssey。

5. 方法

为了进一步降低计算成本而不牺牲准确性,我们采用了光学流中常用的策略:先在降低的空间分辨率下进行复杂计算,然后通过更轻量的层进行上采样。如图2所示,我们首先以原始分辨率的1/r²进行密集跟踪,从而将计算成本降低1/r²。然后,将降低分辨率的轨迹上采样到全空间分辨率。

如图3所示,如果一帧内对所有标记(token)盲目应用空间自注意力,其复杂度为O(TN²),其中N为轨迹数量,这对于密集跟踪来说是不切实际的。为了降低复杂度,CoTracker引入了虚拟轨迹标记(token),这与DETR引入的可学习标记在概念上相似。它在轨迹标记和少量虚拟轨迹之间来回进行交叉注意力运算,而自注意力仅在虚拟轨迹内部应用。这可以将复杂度降低到O(TKN + TK² + K²T),假设虚拟轨迹的数量K远小于N。然而,这一降低仍然不足以实现高分辨率视频中每个像素的端到端跟踪。虽然在实际操作中,可以将像素分成不相交的组,并在每个组内分别进行注意力运算,但由于忽略了不同组之间标记的交互,这一策略是次优的。

在从前一个模块中以降低的空间分辨率Hₜ×Wₜ提取轨迹后,我们的下一步是在单次前向传递中将它们上采样到全分辨率H×W。在光学流的背景下,一种常见的上采样方法是将每个精细分辨率像素的流表示为在粗分辨率中估计的最近邻流的凸组合。组合的权重是通过卷积神经网络学习的。相反,我们引入了一种基于注意力的上采样机制。我们在实验中证明了其有效性(见图4)。

6. 实验结果

长距离光流结果。我们首先在与基线方法比较的情况下对密集2D跟踪任务进行了实验(见表2)。该实验将评估与额外的3D特征和监督分离开来,从而直接评估我们提出的网络架构在处理密集逐像素跟踪方面的能力。我们发现,在位置准确性方面,我们的方法显著优于所有先前的方法,包括最近的当前最优方法DOT。在可视化结果时,这种改进尤为明显,其中DOT预测的轨迹在跟踪像素被遮挡或移出视线时往往会变得不稳定。这凸显了在跟踪网络中保持时间注意力的重要性,而DOT则缺乏这一特性。

密集3D跟踪结果。我们报告了在Kubric合成测试集上的密集3D跟踪结果,我们的方法在准确性和运行时间上都显著优于其他方法。我们在图5中可视化了3D密集跟踪的结果。与SceneTracker和SpatialTracker相比,我们的方法在准确预测移动物体的位置以及在整个视频中保持物体形状方面表现出色。

7. 总结 & 未来工作

我们提出了一种方法,该方法能够高效地跟踪视频中每一帧的每一个像素,在密集2D/3D跟踪方面展示了最先进的准确性,同时运行速度显著快于现有的3D跟踪方法。尽管取得了这些成功,但由于我们方法的时间处理窗口相对较短,它仍与之前的点跟踪方法存在一些共同的局限性。它可能无法跟踪长时间被遮挡的点,并且目前在处理少于几百帧的视频时表现最佳。此外,我们的3D跟踪性能与现成的单目深度估计的准确性和时间一致性密切相关。我们预计,随着单目深度估计研究的最近快速发展,我们的方法将从中受益。

对更多实验结果和文章细节感兴趣的读者,可以阅读一下论文原文~

© 2024 精读
删除内容请联系邮箱 2879853325@qq.com