
欧氏距离:
余弦距离:
马氏距离:
(1)方差:
(2)协方差
协方差:标准差与方差是描述一维数据的,当存在多维数据时,我们通常需要知道每个维数的变量中间是否存在关联。协方差就是衡量多维数据集中,变量之间相关性的统计量。比如一个人身高和体重的关系:如果两个变量之间的协方差为正值,则这两个变量之间存在正相关,即你变大,同时我也变大。
例子:X,Y反向运动
(2)协方差矩阵:
X为是以 n个随机变数组成的列向量:
则其协方差矩阵为:
(4)马氏距离
2 k-reciprocal re-ranking论文简介《Re-ranking Person Re-identification with k-reciprocal Encoding》论文地址:http://arxiv.org/pdf/1701.08398
在行人重识别的任务中,对模型的输出,我们对结果相似的进行排序(距离近的靠前)。但是结果中经常会出现噪声。
如下图中最上面的一行为一些正负样本(好像不是排序的结果,原文中说:P1, P2, P3 and P4 are four true matches to the probe, but all of them are not included in the top-4 ranks,some false matches (N1- N6) receive high ranks ),与probe相同身份的正样本为P1-P4,负样本N1-N6。
当两张图片被称为k nearest neighbors时,他们互相在对方的top-k 的rank中,在下图的样本中,每个样本对应的两竖列(10张图)为它的nearest neighbors,可以看到蓝色为probe,绿色为身份相同的正样本,蓝色probe在全部正样本的neighbors中出现了,且没有在负样本中出现。
基于上述的considerations,提出了一种REID的rerank的方法‘k-reciprocal encoding method’。
(1)问题的定义:
给出一个probe,它和gallery中的每一个样本的距离,可以用马氏距离来计算,见公式(1),其中xp是p的feature,xgi是gi的feature,M是协方差矩阵(协方差矩阵是半正定的positive semidefinite matrix)。
原始的initial ranking list为L(p,G),我们的目标就是去提升正样本在rank list中的排名。
(2)k-reciprocal Nearest Neighbors
定义N,N是由rank list前k个samples组成的,|*|表示数量=k。
The k-reciprocal nearest neighbors ℛ(p, k)可以定义为公式(3),gi在N(p,k)中 且p在N(gi,k)中,即对应了中心思想“他们互相在对方的top-k 的rank中”。
(注释: ∧ 且)
可能存在一些特殊情况,有些正样本可能不存在k-nearest neighbors的集合中,即也不包含在R(p,k)中,因此要用公式(4)把R扩展成R*,过程可理解为下图
(3)Jaccard Distance
本部分使用ℛ*(p, k)重新进行rank list的排序。使用的是Jaccard Distance。先验知识是:如果两个图像相似,则他们的k-reciprocal nearest neighbors set ℛ*(p, k)有很大的重叠部分
(注: |*|为计算统计数量)
上述方法有三个缺点:
(1)耗时,全样本的交并集
(2)没看懂
(3)需要原始距离和Jaccard距离相结合
为了克服上述缺点,需要对jaccard进行改造:
首先将k-reciprocal Nearest Neighbors set 转换为V
##未完待续
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)