广义最小二乘法

来自testwiki
跳转到导航 跳转到搜索

Template:回归侧栏

广义最小二乘法Template:Lang-en)是統計學中的一个方法,当回归模型中的残差之间存在一定程度的相关性时,它可以被用于估计线性回归模型中的未知参数。最小二乘法和加权最小二乘法可能需要提高统计效率并防止误导性推论。GLS由新西兰数学家亚历山大·艾特肯(Alexander Aitken)于1935年首次描述。

概述

在一个标准线性回归中,有数据组{yi,xij}i=1,,n,j=2,,k

因变量有:𝐲(y1yn),预测变量被放入了如下的设计矩阵𝐗(1x12x13x1k1x22x23x2k1xn2xn3xnk),这里每行是一个有k预测变量的向量,每行对应第i个数据点。这个模型假设𝐲𝐗下的的条件均值将会是𝐗的线性函数,且在𝐗下的方差是一个非奇异方差矩阵𝜴,有𝐲=𝐗𝜷+𝜺,E[𝜺𝐗]=0,Cov[𝜺𝐗]=𝜴,这里𝜷k是一个含有未知常数的矩阵,称为回归系数(regression coefficients),它们从回归中预测得到。如果𝐛𝜷可能的值,则对𝐛的残余值是𝐲𝐗𝐛。广义最小二乘法通过最小化馬哈拉諾比斯距離来预测𝜷𝜷^=argmin𝐛(𝐲𝐗𝐛)T𝜴1(𝐲𝐗𝐛)=argmin𝐛𝐲T𝜴1𝐲+(𝐗𝐛)T𝜴1𝐗𝐛𝐲T𝜴1𝐗𝐛(𝐗𝐛)T𝜴1𝐲,相当于𝜷^=argmin𝐛𝐲T𝜴1𝐲+𝐛T𝐗T𝜴1𝐗𝐛2𝐛T𝐗T𝜴1𝐲,这是一个二次规划问题。目标函数的驻点出现在以下情况:2𝐗T𝜴1𝐗𝐛2𝐗T𝜴1𝐲=0,所以:𝜷^=(𝐗T𝜴1𝐗)1𝐗T𝜴1𝐲.数量𝜴1称为精度矩阵(或分散矩阵),是对角权重矩阵的推广。