首页 > 搜索 > 但氏的氏能组词,方差、协方差、马氏距离-总结_Bryan

但氏的氏能组词,方差、协方差、马氏距离-总结_Bryan

互联网 2021-03-03 06:39:19

最近在做3D点云配准,遇到精度上的瓶颈,考虑到可能需要从细节方面进行突破。基于典型的ICP算法,在每次迭代计算两组点云数据之间的欧氏距离,并作为最终收敛阈值的条件,总感觉有些不妥,所以就考虑用概率统计里面的马氏距离来替换欧式距离,不知效果如何,还在验证中。如果朋友也在做这方面的研究,欢迎深入讨论~

下面是统计学数据分析中,几个常用的名词,在前人的基础上,我再次做些总结和修改:

方差:很显然,均值描述的是样本集合的中间点,它告诉我们的信息是很有限的,而标准差给我们描述的则是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0,8,12,20]和[8,9,11,12],两个集合的均值都是10,但显然两个集合差别是很大的,计算两者的标准差,前者是8.3,后者是1.8,显然后者较为集中,故其标准差小一些,标准差描述的就是这种“散布度”。之所以除以n-1而不是除以n,是因为这样能使我们以较小的样本集更好的逼近总体的标准差,即统计上所谓的“无偏估计”。而方差则仅仅是标准差的平方。

为什么需要协方差?

上面几个统计量看似已经描述的差不多了,但我们应该注意到,标准差和方差一般是用来描述一维数据的,但现实生活我们常常遇到含有多维数据的数据集,最简单的大家上学时免不了要统计多个学科的考试成绩。面对这样的数据集,我们当然可以按照每一维独立的计算其方差,但是通常我们还想了解更多。协方差就是这样一种用来度量两个随机变量关系的统计量;

协方差的结果有什么意义呢?如果结果为正值,则说明两者是正相关的(从协方差可以引出“相关系数”的定义)

协方差多了就是协方差矩阵,关于协方差矩阵,下面是wiki上的介绍:

在统计学与概率论中,协方差矩阵(或称共变异矩阵)是一个矩阵,其每个元素是各个向量元素之间的方差。这是从标量随机变量到高维度随机向量的自然推广。

假设X是以n个标量随机变量组成的列向量,

X = \begin{bmatrix}X_1 \\ \vdots \\ X_n \end{bmatrix}

\mu_i是其第 i 个列向量{\displaystyle X_{i}}X_{i}中所有元素的平均值%2c即μi = E(Xi)。协方差矩阵被定义的第i,j项是如下协方差:

 \Sigma_{ij} = \mathrm{cov}(X_i%2c X_j) = \mathrm{E}\begin{bmatrix} (X_i - \mu_i)(X_j - \mu_j) \end{bmatrix}

即:

 \Sigma=\mathrm{E} \left[ \left( \textbf{X} - \mathrm{E}[\textbf{X}] \right) \left( \textbf{X} - \mathrm{E}[\textbf{X}] \right)^\top \right]  = \begin{bmatrix} \mathrm{E}[(X_1 - \mu_1)(X_1 - \mu_1)] & \mathrm{E}[(X_1 - \mu_1)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_1 - \mu_1)(X_n - \mu_n)] \\ \ \mathrm{E}[(X_2 - \mu_2)(X_1 - \mu_1)] & \mathrm{E}[(X_2 - \mu_2)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_2 - \mu_2)(X_n - \mu_n)] \\ \ \vdots & \vdots & \ddots & \vdots \\ \ \mathrm{E}[(X_n - \mu_n)(X_1 - \mu_1)] & \mathrm{E}[(X_n - \mu_n)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_n - \mu_n)(X_n - \mu_n)] \end{bmatrix}

矩阵中的第(i%2cj)个元素是Xi与Xj的协方差。这个概念是对于标量随机变量方差的一般化推广。

尽管协方差矩阵很简单,可它却是很多领域里的非常有力的工具。它能导出一个变换矩阵,这个矩阵能使数据完全去相关(decorrelation)。从不同的角度看,也就是说能够找出一组最佳的基以紧凑的方式来表达数据。(完整的证明请参考瑞利商)。 这个方法在统计学中被称为主成分分析(principal components analysis),在图像处理中称为Karhunen-Loève 变换(KL-变换)。

 

马氏距离是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系(例如:一条关于身高的信息会带来一条关于体重的信息,因为两者是有关联的)并且是尺度无关的(scale-invariant),即独立于测量尺度。 对于一个均值为\mu = ( \mu_1%2c \mu_2%2c \mu_3%2c \dots %2c \mu_p )^T协方差矩阵为Σ的多变量向量x = ( x_1%2c x_2%2c x_3%2c \dots%2c x_p )^T%2c其马氏距离为

D_M(x) = \sqrt{(x - \mu)^T \Sigma^{-1} (x-\mu)}.\%2c

马氏距离也可以定义为两个服从同一分布并且其协方差矩阵为Σ的随机变量 \vec{x} \vec{y}的差异程度:

 d(\vec{x}%2c\vec{y})=\sqrt{(\vec{x}-\vec{y})^T\Sigma^{-1} (\vec{x}-\vec{y})}.\%2c

如果协方差矩阵为单位矩阵%2c那么马氏距离就简化为欧式距离%2c如果协方差矩阵为对角阵%2c则其也可称为正规化的欧氏距离'.

 d(\vec{x}%2c\vec{y})= \sqrt{\sum_{i=1}^p {(x_i - y_i)^2 \over \sigma_i^2}}%2c

其中σi 是 xi 的标准差.

免责声明:非本网注明原创的信息,皆为程序自动获取互联网,目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责;如此页面有侵犯到您的权益,请给站长发送邮件,并提供相关证明(版权证明、身份证正反面、侵权链接),站长将在收到邮件12小时内删除。

一周热门

查看更多