热门问题
时间线
聊天
视角

特征向量中心性

来自维基百科,自由的百科全书

Remove ads

图论中,特征向量中心性(eigenvector centrality)是测量节点网络影响的一种方式。针对连接数相同的节点,相邻节点分数更高的节点会比相邻节点分数更低的节点分数高,依据此原则给所有节点分配对应的分数。特征向量得分较高意味着该节点与许多自身得分较高的节点相连接。[1][2]

谷歌PageRankKatz中心性是特征向量中心性的变体。[3]

利用邻接矩阵求特征向量中心性

给定一个节点集合为的图,定义其邻接矩阵,当相连时,否则。则节点中心性的分数其求解公式为:

其中是节点的相邻节点集合,是一个常数。经过一系列变形,该公式可变换为如下所示的特征向量方程:

通常来说,有许多不同的特征值能使得一个特征方程有非零解存在。然而,考虑到特征向量中的所有项均为非负值,根据佩伦-弗罗贝尼乌斯定理,只有特征值最大时才能测量出想要的中心性。然后通过计算网络中的节点 其特征向量的相关分量便能得出其对应的中心性的分数。特征向量的定义只有一个公因子,因此各节点中心性的比例可以很好确定。为了确定一个绝对分数,必须将其中一个特征值标准化,例如所有节点评分之和为1或者节点数 n幂次迭代是许多特征值算法中的一种,该算法可以用来寻找这种主导特征向量。此外,以上方法可以推广,使得矩阵A中每个元素可以是表示连接强度的实数,例如随机矩阵

Remove ads

应用

神经科学中,研究发现一个模型神经网络其神经元的特征向量中心性与神经元的相对激发率有关。[4]

特征向量中心性最早在埃德蒙·兰道(Edmund Landau)于1895年发表的一篇关于国际象棋比赛计分的论文中使用过。[5][6]

参见

  • 中心性

参考文献

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads