# 随机采样一致性与特征图匹配

Rocco[1] 等人在其弱监督语义级别图像匹配的工作中,将特征匹配与随机采样一致性算法(RANdom SAmple Consensus, RANSAC)联系在一起,提出了一个可微分的基于语义的评分损失函数,文中对于语义特征匹配和 RANSAC 算法的阐述令人耳目一新,遂作此文对相关概念追本溯源。

# 随机采样一致性(RANSAC)

真实世界的数据往往充满各种各样的噪声,如果想得到足够鲁棒的适用于所有场景的模型,就要尽量降低噪声的影响。由 Fischler[3] 等人提出的随机采样一致性算法,可以很好从含有大量离群点和噪音地数据中恢复出足够准确地模型参数。相对于在统计学领域中大量使用的 M 估计(M-estimators)和最小均方回归(Least Median Square Regression)等稳健估计方法(Robust Estimation),RANSAC 则主要应用于计算机视觉领域,而且从 Fichler[3] 的论文就可以看出,RANSAC 算法从诞生之初便和图像匹配存在不解之缘。

简略来看,RANSAC 从所有数据中采样尽量少的观测点来估计模型参数,而不是像其他依赖于从尽可能多的数据中过滤掉离群点,RANSCAC 使用一组足够少的点来初始化算法,然后不断地使用迭代式方法来增大具有数据一致性的可信点规模。

算法的流程可以简要地描述如下:

  1. 从数据样本 SS随机选取 KK 个点,得到假设子集 SKS_K,然后使用 SKS_K 优化模型参数 M(θ)M(\theta),得到初始模型;
  2. 对所有数据样本 SS 应用模型 M(θ)M(\theta),然后根据每个数据样本的误差 M(θ,xi)yi||M(\theta, x_i) - y_i|| 来所有数据样本划分为内群点(inliner points)和离群点(outliner points),其中误差大于超参数 ϵ\epsilon 的称为离群点 SoutlinerS_{outliner},反正则为内群点 SinlinerS_{inliner}
  3. 如果内群点的占比 R=SinlinerSR = \frac{S_{inliner}}{S} 大于超参数阈值 τ\tau,则使用所有的内群点 SinlinerS_{inliner} 来重新优化模型参数,并将得到的模型作为最终模型,终止迭代;
  4. 否则使用内群点 SinlinerS_{inliner} 优化模型,并重复执行步骤 2,直到条件 3 满足,或者达到迭代次数上限 NN

图 1 RANSAC 迭代过程演示

可以看到 RANSAC 算法的性能由超参数 N,K,ϵ,τN, K, \epsilon, \tau 来决定,通常来讲,迭代次数 NN 必须设置的足够大,才能使得至少有一次数据采样 SKS_K 不包含任何离群点的概率 pp (一般来说 p=0.99p = 0.99)满足我们的使用要求,以此来避免离群点的影响,我们可以通过简单地推导来得到迭代上限的近似估计。

假设每次随机选择一个点,该点为内群点的概率为 uu,则其为离群点的概率为 v=1uv = 1 - u,则在 NN 次迭代,每次迭代选取 KK 个点的情况下,有

1p=(1uK)N1 - p = (1 - u^K)^N

从而估计出

N=log(1p)log(1(1v)K)N = \frac{log(1 - p)}{log(1 - (1 - v)^K)}

举个粒子,假设数据总量 10001000,有大概 100100 个离群点,则有 u=0.9,v=0.1u = 0.9, v = 0.1,每次迭代选取 K=200K = 200 个点来估计参数,则迭代上限应该为 N=log(10.99)÷log(10.9200)21076N = log(1 - 0.99) \div log(1 - 0.9^{200}) \approx 21076 次。

此外,RANSAC 算法还有很多变种,比如在估计离群点时应用极大似然估计的 MLESAC[4],每次迭代采样时使用权重采样的 IMPSAC[5]。

# 图像特征匹配(Image Feature Matching)

图像特征匹配是计算机视觉中的经典任务,无论是做图像检索、三维重建,还是做相机重定位或者 SLAM,都需要先从图像中提取出匹配好的特征点对。以两幅图像为例,图像特征匹配一般包含两个阶段[6]:

  1. 从图像对 (Is,It)(I_s, I_t) 中分别提取特征点 (Fs,Ft)(F_s, F_t)
  2. 对两个特征点集进行匹配,得到匹配完毕的特征对 MstM_{s \rightarrow t}

其中第一步提取的特征点,可以是经典的手动构造的特征描述子 SIFT、SURF 或者 ORB 等,也可以是由神经网络端到端地生成特征描述子,比如 LIFT[7]、DELF[8] 以及 D2-Net[9] 等。然后对得到的特征点进行特征匹配,常见的策略有 opencv 自带的 Brute-Force 暴力匹配和快速近似 k 近邻匹配[10]、朴素最近邻匹配、双向最近邻(或称 cycle consistent)等匹配方法。

图 2 图像匹配的一般流程[11]

在进行特征点匹配时,为了保证匹配的鲁棒性,需要尽可能多得降低离群点以及错误匹配的影响,此时就要结合前文中提到的 RANSAC 算法过滤掉离群点。

图 3 使用 RANSAC 过滤离群点。A 和 B 中的红色点表示在另一幅图中不存在对应的特征点,蓝色点表示存在对应的特征点,但是没有得到完美匹配,黄色的点表示匹配成功。

考虑同一个场景下的图像匹配,如图 3 所示,两张图片在同一场景的不同视角进行拍摄,因此我们如果想要将两张图片对齐,就要求解出两个视角的单应矩阵 HH,由于我们选用的特征描述子不可能总是完美地表示原始图片中的视觉特征,所以我们在使用汉明距离或者 L2L_2 距离 DD 应用 k 紧邻或者暴力匹配算法时,总是会产生错误匹配,也就是图 3 中的蓝色点,那么此时在所有特征点对 MstM_{s \rightarrow t} 中,蓝色的匹配就是离群点,我们的目标便是使用 RANSAC 算法来降低这些离群点的影响[12]:

  1. MstM_{s \rightarrow t} 中随机选取 kk 个特征点对 MkM_k
  2. 使用 MkM_k 求解单应矩阵 HH
  3. 对图像 IsI_s 中的所有特征点 FsF_s 应用单应矩阵 HH,将其投影到图像 IsI_s 的成像坐标系中,得到投影后的特征点 F^s=Project(H,Fs)\hat F_s = Project(H, F_s)
  4. 根据预设定阈值 ϵ\epsilon 计算内群点,即满足 D(Fs^,MstFs)ϵD(\hat{F_s}, M_{s \rightarrow t}F_s) \leq \epsilon 的匹配;
  5. 如果内群点占比不满足条件,则重复上述步骤 2 - 4;否则使用当前的所有内群点对重新计算 HH 作为最终结果。

结合了 RANSAC 的改进算法和各种改良后的特征描述子的特征匹配算法的性能已经足够良好[6],并且能够稳定地胜任 SLAM、三维重建和位姿估计等视觉任务。然而上述算法却无法直接应用到神经网络中,这是因为每次采样选点的过程都是不可微分的,这与梯度下降法的使用场景相悖。此外,经典的视觉特征描述子也很难描述出图像中物体的语义特征,因此,可微分的 RANSAC 算法应运而生,而随着深度学习的兴起,语义层面的特征匹配方法也层出不穷。

# 语义特征匹配

前文提到,在大多数计算机视觉任务中,我们只需要找到同一个场景中在不同视角拍摄的图片之间的响应或者匹配,就可以完成三维重建或者相机重定位等任务,然而有时候我们需要对不同场景的图像进行语义级别的匹配,比如当场景中存在动态物体时,传统匹配方法无法灵活处理动态部分的场景,这时候就需要我们使用语义级别的特征匹配方法。

图 4 语义级别的图像匹配[13]

为了解决传统特征描述子的描述能力受限的问题,人们首先考虑从深度学习学到的特征开始入手,使用各种各样的 CNN 学习到的特征描述子进行特征匹配[14],比如使用物体级别的框体匹配(learned at the object-proposal level)的 SC-NET [15][16],以及直接使用手工标注的特征响应的有监督的方法 [17]。

首个弱监督的端到端的语义特征匹配方法是 Rocco 的这篇文章[1],作者声称从经典的 RANSAC 算法中得到启发,直接从特征相关矩阵中学习特征相似度较大的区域,从而学习到密集的特征响应信号,同时为了使得整个流程可以微分,使用了 Spatial Transformer Networks 中的图像变换模型来执行图像采样。

图 5 Rocco[1] 提出的端到端的特征特征匹配流程

前文提到,图像匹配的流程一般包含两个步骤,首先是特征提取,其次是特征匹配。Rocco[1] 的 pipeline 使用一个参数共享的孪生 CNN 来提取原始图像的特征图,从而得到图像对的特征图 (Fs,Ft)(F_s, F_t),然后对于特征匹配部分,则使用一个图像变换参数估计模型 GG 来学习 FsFtF_s \rightarrow F_t 的仿射变换矩阵 TT 的参数 gg,这也是整个流程的核心所在,那么如何得到图像变换参数估计模型 GG 的监督信号呢?我们还要先从特征图的相关矩阵(correlation map)说起,相关矩阵也是计算机视觉中注意力机制[19][20]的基础,对特征图 (Fs,Ft)(F_s, F_t) 计算相关矩阵:

Vs=Flatten(Fs),Vt=Flatten(Ft);Rh×w×cRhw×cV_s = Flatten(F_s), V_t = Flatten(F_t); R^{h \times w \times c} \rightarrow R^{hw \times c}

C=Softmax(VsVtT);Rhw×c×Rc×hwRhw×hwC = Softmax(V_sV_t^T); R^{hw \times c} \times R^{c \times hw} \rightarrow R^{hw \times hw}

图 6 相关性矩阵的计算

直观上理解相关性矩阵的计算,就是用特征图中位于 (i,j)(i, j) 处的长度为 CC 的向量 F(i,j)F_{(i, j)} 来描述位置 (i,j)(i, j) 处的特征,先将维度为 h×w×ch\times w \times c 的特征图重整(reshape)为维度为 hw×chw \times c 的向量矩阵,然后使用向量乘法与 Softmax 来计算一个相似性度量,可以看到这个相似性度量与余弦距离在形式上较为接近,这样可以直观地将相关矩阵 CC 理解为描述两张特征图中任意两个位置的特征向量之间的相似性。

可以发现,特征图 FsF_sFtF_t 的相似性越高,相关矩阵 CC 的对角线上的相似性得分就越高,回顾图 1 中我们用直线拟合来介绍 RANSAC 的例子,可以发现这两个问题有着形式上的相似性,自然而然地,我们便可以使用相关矩阵 CC 对角线上的得分来作为两张特征图的相似性度量得分,而我们想要学习得到的图像变换模型 GG 的目标函数就可以描述为 L_g = Score(C(F_s · G_\theta (F_s, F_t), F_t))。

为了增加鲁棒性,不仅考虑 CC 的对角线上的得分,而且考虑对角线周边的区域得分,所以 Rocco[1] 来使用一个以对角线为中心的掩层(mask)来框选得分区域,就是图 5 中的 mm

图 7 学习图像变换模型的过程就是 RANSAC 采样的过程

如果我们把相关矩阵 CC 中掩层区域外的值看作离群点,掩层内的值看错内群点,而图像变换参数估计模型 GG 估计出的参数则用来对 FsF_s 进行采样,可以发现,优化目标函数 LgL_g 的过程其实与前文中提到的 RANSAC 过程是一致的,我们使用掩层内的值不断地优化模型 GG,就相当于 RANSAC 中使用内群点不断地优化模型参数,从而学习到更加鲁棒的模型。

到此为止,图像变换矩阵 GG 便描述了特征图 FsF_sFtF_t 之间的特征响应,而且得益于 CNN 的感受野,这种特征响应也描述了两张图像在语义层面上的相关性。

# 扩展应用

相较于直接使用 L1L_1 或者 L2L_2 等误差函数,前文提到的 LgL_g 可以更好得描述特征图间得语义相关性,这使得其可以在图像匹配之外的场景中应用,比如 Wang[21] 就将其应用在挖掘视频帧间响应的任务中,以无监督的形式在多种视觉任务上得到了与监督学习匹敌的性能数据。其他诸如在动态场景的任务,如 SLAM、视频深度估计或者三维重建中也有较大的应用潜力。

# 参考资料

  1. Rocco, Ignacio, Relja Arandjelović, and Josef Sivic. "End-to-end weakly-supervised semantic alignment." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.
  2. Derpanis, Konstantinos G. "Overview of the RANSAC Algorithm." Image Rochester NY 4.1 (2010): 2-3.
  3. Fischler, Martin A., and Robert C. Bolles. "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography." Communications of the ACM 24.6 (1981): 381-395.Communications of the ACM, 24(6):381–395, 1981.
  4. Torr, Philip HS, and Andrew Zisserman. "MLESAC: A new robust estimator with application to estimating image geometry." Computer vision and image understanding 78.1 (2000): 138-156.
  5. Torr, Philip H. S., and Colin Davidson. "IMPSAC: Synthesis of importance sampling and random sample consensus." IEEE Transactions on Pattern Analysis and Machine Intelligence 25.3 (2003): 354-364.
  6. Jin, Yuhe, et al. "Image Matching across Wide Baselines: From Paper to Practice." arXiv preprint arXiv:2003.01587 (2020).
  7. Yi, Kwang Moo, et al. "Lift: Learned invariant feature transform." European Conference on Computer Vision. Springer, Cham, 2016.
  8. Noh, Hyeonwoo, et al. "Large-scale image retrieval with attentive deep local features." Proceedings of the IEEE international conference on computer vision. 2017.
  9. Dusmanu, Mihai, et al. "D2-Net: A Trainable CNN for Joint Description and Detection of Local Features." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.
  10. “Feature Matching.” OpenCV, opencv-python-tutroals.readthedocs.io/en/latest/py_tutorials/py_feature2d/py_matcher/py_matcher.html.
  11. http://cmp.felk.cvut.cz/~mishkdmy/slides/EECVC2019_Mishkin_image_matching.pdf
  12. https://people.cs.umass.edu/~elm/Teaching/ppt/370/370_10_RANSAC.pptx.pdf
  13. Chen, Yun-Chun, et al. "Deep semantic matching with foreground detection and cycle-consistency." Asian Conference on Computer Vision. Springer, Cham, 2018.
  14. Ufer, Nikolai, and Bjorn Ommer. "Deep semantic feature matching." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017.
  15. Han, Kai, et al. "Scnet: Learning semantic correspondence." Proceedings of the IEEE International Conference on Computer Vision. 2017.
  16. Ufer, Nikolai, and Bjorn Ommer. "Deep semantic feature matching." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017.
  17. Rocco, Ignacio, Relja Arandjelovic, and Josef Sivic. "Convolutional neural network architecture for geometric matching." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017.
  18. Jaderberg, Max, Karen Simonyan, and Andrew Zisserman. "Spatial transformer networks." Advances in neural information processing systems. 2015.
  19. Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems. 2017.
  20. Wang, Xiaolong, et al. "Non-local neural networks." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.
  21. Wang, Xiaolong, Allan Jabri, and Alexei A. Efros. "Learning correspondence from the cycle-consistency of time." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.