热门问题
时间线
聊天
视角

约翰逊-林登斯特劳斯定理

来自维基百科,自由的百科全书

Remove ads

约翰逊-林登斯特劳斯定理(Johnson–Lindenstrauss theorem),又称约翰逊-林登斯特劳斯引理(Johnson–Lindenstrauss lemma),是由William Johnson英语William_B._Johnson_(mathematician)Joram Lindenstrauss英语Joram_Lindenstrauss于1984年提出的一个关于降维的著名定理[1],在现代机器学习,尤其是压缩感知降维形状分析英语Nonlinear_dimensionality_reduction#Manifold_learning_algorithms分布学习英语Density_estimation等领域中有很重要的应用[2][3][4][5]

这个定理告诉我们,一个高维空间中的点集,可以被线性镶嵌到低维空间中,同时其空间结构只遭受比较小的形变[6]。约翰逊-林登斯特劳斯定理的证明,还说明了如何用随机投影法英语Random_projection明确地求出这个变换,所用的算法只需要随机多项式时间[7]。当然,降维不是免费的:如果要求形变很少的话,代价英语trade-off是被嵌入的低维空间维数不能很低;反之亦然,如果要求将点集嵌入很低维的空间,那么就不能很好地控制结构形变的程度。

因为能将维数下降到样本量的对数阶,更兼所用的变换是线性的显式的还可以被快速计算,约翰逊-林登斯特劳斯定理是一个力度非常强的结论。

Remove ads

定理陈述

对任何给定的以及欧几里德空间中的个点,对于任意满足条件的正整数,存在一个线性映射,将这个点,从(维数可能很高的空间)中映射到(低维空间)中,同时“基本上”保持了点集成员两两之间的距离,即:对于任意两个点,都有

更进一步地,这个线性映射还可以在随机多项式时间内求出[7]

Remove ads

直观理解

约翰逊-林登斯特劳斯定理揭示了一些关于降维映射深刻事实,其中一些还是违反简单直觉的[8]。因此,要想直观地理解这个定理,对初学者来说,可能比从数学式子上读懂证明还要难(反而此定理的证明只用到了比较简单的关于投影的随机误差不等式英语Concentration of measure[9])。举例来说,定理的结论表明,度量形变程度的误差参数以及低维空间的维数这两个度量降维水准的关键量,均与原始数据所在的空间维数或者原始的个点具体为何种空间结构无关,这是很不平凡的[9]

Remove ads

最优性

约翰逊-林登斯特劳斯定理是不能被本质性地改进的[10],即:给定任意正整数和误差参数,存在某个以及中的个点,这个点集“难以降维”——也就是说,对任何一个满足“基本保持点距”要求(即:要对任意成立)的线性映射,它用来镶嵌高维数据的那个低维空间(即),至少必须具有

这么多的维数[11]

Remove ads

证明提要

定理可以用高年级大学生容易理解的方法证明[7][12],其思路是证明如下事实:多次独立地重复进行随机投影的试验,每次试验中随机抽取的投影都有至少的概率符合定理中对映射全部的要求(显然,验证任何一个是否符合这些要求只需时间),因此只要重复该独立实验次就能以逼近100%的概率产生至少一个符合要求的映射

Remove ads

参考文献

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads