特征向量中心性

来自testwiki
跳转到导航 跳转到搜索

图论中,特征向量中心性(eigenvector centrality)是测量节点网络影响的一种方式。针对连接数相同的节点,相邻节点分数更高的节点会比相邻节点分数更低的节点分数高,依据此原则给所有节点分配对应的分数。特征向量得分较高意味着该节点与许多自身得分较高的节点相连接。[1][2]

谷歌PageRankKatz中心性是特征向量中心性的变体。[3]

利用邻接矩阵求特征向量中心性

给定一个节点集合为|V|的图G=(V,E),定义其邻接矩阵A=(av,t),当vt相连时av,t=1,否则av,t=0。则节点v中心性x的分数其求解公式为:

xv=1λtM(v)xt=1λtGav,txt

其中M(v)是节点v的相邻节点集合,λ是一个常数。经过一系列变形,该公式可变换为如下所示的特征向量方程:

𝐀𝐱=λ𝐱

通常来说,有许多不同的特征值λ能使得一个特征方程有非零解存在。然而,考虑到特征向量中的所有项均为非负值,根据佩伦-弗罗贝尼乌斯定理,只有特征值最大时才能测量出想要的中心性。然后通过计算网络中的节点v 其特征向量的相关分量vth便能得出其对应的中心性的分数。特征向量的定义只有一个公因子,因此各节点中心性的比例可以很好确定。为了确定一个绝对分数,必须将其中一个特征值标准化,例如所有节点评分之和为1或者节点数 n幂次迭代是许多特征值算法中的一种,该算法可以用来寻找这种主导特征向量。此外,以上方法可以推广,使得矩阵A中每个元素可以是表示连接强度的实数,例如随机矩阵

应用

神经科学中,研究发现一个模型神经网络其神经元的特征向量中心性与神经元的相对激发率有关。[4]

特征向量中心性最早在埃德蒙·兰道(Edmund Landau)于1895年发表的一篇关于国际象棋比赛计分的论文中使用过。[5][6]

参见

参考文献

Template:Reflist