[论文链接]
现有的估计场景流的方法都需要有标注的场景流数据去使用监督的方法训练网络。本文作者提出了使用两个自监督损失函数训练(场景流估计)网络的方法,这两个损失函数分别基于最近邻和cycle consistency(不知道该怎么翻译。。。)。自监督的训练方法使得大量没有标注信息的自动驾驶数据集可以用于训练网络。使用本篇文章自监督方法训练的网络,表现与目前最好的使用监督方法学习的网络效果相当。如果使用自监督训练并在小规模标注数据上监督学习,可以得到超越当前最好方法的表现。
假定估计的流为D^={di^}N,真实流为D∗={di∗}N。则监督损失函数定义为:
Lgt=N1i∑N∣∣di∗−d^i∣∣2
上述的损失函数是有用的,因为它数学等价于终点误差,论文中使用它作为评估度量。合成数据上流的标注很好计算,然而对于真实数据就需要大量的人工标注。而且有标注的场景流数据集很少。已有的工作表明在合成数据上训练,在目标应用域的真数据上fine-tuning可以得到很大的提升。
接下来介绍一下文章提出的两个无监督的loss,假设X为在时刻t捕捉到的点云,Y为在时刻t+1捕捉到的点云,D={di}N,di∈R3为两帧点云之间的场景流。
Nearest Neighbor (NN) Loss 在未标注的数据集中,并没有关于di∗的信息,因此也不能使用上面提到的损失函数。受到ICP算法的启发,这里用变形后点的最近邻x^i′=xi+d^i作为正确对应点的近似。对于每个变形后的点x^i′∈X′^,在t+1帧中找到它的最近邻yi∈Y并计算他们之间的距离,如下图(a)中eNN所示:
LNN=N1i∑Nyi∈Ymin∣∣x^i′−yi∣∣2
这个loss可以使得变形的点云与目标点云更加接近。但也有一定的缺点,首先如上图(a)所示,找到的最近邻并不一定是变形点应该正确对应的点。再者,在点云稀疏的情况下,并不一定能找到对应点。以上情况可能导致0 loss的出现。所以提出了如下的 Cycle Consistency Loss。
Cycle Consistency Loss 为解决上述问题,引入了另一个自监督损失,如上图(b)所示。先估计一个前向的流D^=g(X,Y),每个点xi的流d^i∈D^ 给定了一个在下一帧中估计的点x^i′=xi+d^i。然后从相反的方向估计流:对每个变形的点x^i′估计一个流(D′^=g(X′^,X))将其变换回初始的帧中。用反向的流di′^变换每个点x^i′会得到一个新的点x^i′′。如果前向和反向的流均正确,那么这个新的点x^i′′应该和原始点xi相同。这些点之间的误差ecycle就是cycle consistency loss:
Lcycle=i∑N∣∣x^i′′−xi∣∣2
然而实际上这样实现cycle loss进行自监督训练时并不能得到稳定的结果。原因是估计的流导致变形点云的结构发生畸变,而畸变的点云又作为反向流估计的输入。为了解决畸变问题,文中使用变换点x^i′在t+1帧中的最近邻yi作为反向传播的锚点。最近邻yi的使用,可以在循环中稳定变形点云结构的同时保持点的对应关系。效果如下图所示。由于锚点作为循环反向传播的一部分,所以这个loss称作“anchored cycle consistency loss”。
计算反向流的具体过程如下:
(1) 首先计算前向流D^=g(X,Y);
(2) 根据前向流计算变形的点云:x^i′=xi+d^i;
(3) 锚点作为变形点和最近邻的组合来计算:X′ˉ={xˉi′}N,xˉi′=λx^i′+(1−λ)yi,其中λ在论文中的取值为0.5;
(4) 用得到的锚点计算反向流,使用上面的方式计算cycle loss;
cycle consistency loss也会出现 0 loss的情况,但使用anchored cycle consistency loss后可以避免这种情况的出现。最后使用两个loss的和作为真实误差的稳定替代:L=LNN+Lcycle。
此外作者还使用了翻转训练集点云序列的方法增强数据集。