热门问题
时间线
聊天
视角
特徵向量中心性
来自维基百科,自由的百科全书
Remove ads
在圖論中,特徵向量中心性(eigenvector centrality)是測量節點對網絡影響的一種方式。針對連接數相同的節點,相鄰節點分數更高的節點會比相鄰節點分數更低的節點分數高,依據此原則給所有節點分配對應的分數。特徵向量得分較高意味着該節點與許多自身得分較高的節點相連接。[1][2]
利用鄰接矩陣求特徵向量中心性
給定一個節點集合為的圖,定義其鄰接矩陣為,當與相連時,否則。則節點中心性的分數其求解公式為:
其中是節點的相鄰節點集合,是一個常數。經過一系列變形,該公式可變換為如下所示的特徵向量方程:
通常來說,有許多不同的特徵值能使得一個特徵方程有非零解存在。然而,考慮到特徵向量中的所有項均為非負值,根據佩倫-弗羅貝尼烏斯定理,只有特徵值最大時才能測量出想要的中心性。然後通過計算網絡中的節點 其特徵向量的相關分量便能得出其對應的中心性的分數。特徵向量的定義只有一個公因子,因此各節點中心性的比例可以很好確定。為了確定一個絕對分數,必須將其中一個特徵值標準化,例如所有節點評分之和為1或者節點數 n。冪次迭代是許多特徵值算法中的一種,該算法可以用來尋找這種主導特徵向量。此外,以上方法可以推廣,使得矩陣A中每個元素可以是表示連接強度的實數,例如隨機矩陣。
Remove ads
應用
在神經科學中,研究發現一個模型神經網絡其神經元的特徵向量中心性與神經元的相對激發率有關。[4]
特徵向量中心性最早在埃德蒙·蘭道(Edmund Landau)於1895年發表的一篇關於國際象棋比賽計分的論文中使用過。[5][6]
參見
- 中心性
參考文獻
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads