广义最小二乘法

来自testwiki
跳转到导航 跳转到搜索

Template:回归侧栏

广义最小二乘法Template:Lang-en)是統計學中的一个方法,当回归模型中的残差之间存在一定程度的相关性时,它可以被用于估计线性回归模型中的未知参数。最小二乘法和加权最小二乘法可能需要提高统计效率并防止误导性推论。GLS由新西兰数学家亚历山大·艾特肯(Alexander Aitken)于1935年首次描述。

概述

在一个标准线性回归中,有数据组{yi,xij}i=1,,n,j=2,,k

因变量有:𝐲(y1yn),预测变量被放入了如下的设计矩阵𝐗(1x12x13x1k1x22x23x2k1xn2xn3xnk),这里每行是一个有k预测变量的向量,每行对应第i个数据点。这个模型假设𝐲𝐗下的的条件均值将会是𝐗的线性函数,且在𝐗下的方差是一个非奇异方差矩阵Ω,有𝐲=𝐗β+ε,E[ε𝐗]=0,Cov[ε𝐗]=Ω,这里βk是一个含有未知常数的矩阵,称为回归系数(regression coefficients),它们从回归中预测得到。如果𝐛β可能的值,则对𝐛的残余值是𝐲𝐗𝐛。广义最小二乘法通过最小化馬哈拉諾比斯距離来预测ββ^=argmin𝐛(𝐲𝐗𝐛)TΩ1(𝐲𝐗𝐛)=argmin𝐛𝐲TΩ1𝐲+(𝐗𝐛)TΩ1𝐗𝐛𝐲TΩ1𝐗𝐛(𝐗𝐛)TΩ1𝐲,相当于β^=argmin𝐛𝐲TΩ1𝐲+𝐛T𝐗TΩ1𝐗𝐛2𝐛T𝐗TΩ1𝐲,这是一个二次规划问题。目标函数的驻点出现在以下情况:2𝐗TΩ1𝐗𝐛2𝐗TΩ1𝐲=0,所以:β^=(𝐗TΩ1𝐗)1𝐗TΩ1𝐲.数量Ω1称为精度矩阵(或分散矩阵),是对角权重矩阵的推广。