Hi,大家好,我是编程小6,很荣幸遇见你,我把这些年在开发过程中遇到的问题或想法写出来,今天说一说
回归分析的五个基本假设是什么_多元线性回归模型的基本假设,希望能够帮助你!!!。
最近读到一篇很棒的文章,介绍了回归分析的五个基本假设,假设失效的影响及检验方法,现总结归纳如下。为己乃梳理巩固,亦期能有助于各位。
回归分析是一种统计学上分析数据的方法,目的在于了解两个或多个变量间是否相关、相关方向与强度,并建立数学模型。以便通过观察特定变量(自变量),来预测研究者感兴趣的变量(因变量)。
总的来说,回归分析是一种参数化方法,即为了达到分析目的,需要设定一些“自然的”假设。如果目标数据集不满足这些假设,回归分析的结果就会出现偏差。因此想要进行成功的回归分析,我们就必须先证实这些假设。
线性性 & 可加性
假设因变量为 Y ,自变量为
, X2 ,则回归分析的默认假设为 Y=b+a1X1+a2X2+ε 。
X1
线性性: X1 每变动一个单位, Y 相应变动
个单位,与 X1 的绝对数值大小无关。
a1
可加性: X1 对 Y 的影响是独立于其他自变量(如
)的。
X2
误差项( ε )之间应相互独立。
若不满足这一特性,我们称模型具有自相关性(Autocorrelation)。
自变量( X1,X2 )之间应相互独立。
若不满足这一特性,我们称模型具有多重共线性性(Multicollinearity)。
误差项( ε )的方差应为常数。
若满足这一特性,我们称模型具有同方差性(Homoskedasticity),若不满足,则为异方差性(Heteroskedasticity)。
误差项( ε )应呈正态分布。
线性性 & 可加性
若事实上变量之间的关系不满足线性性(如含有 X21 , X31 项),或不满足可加性(如含有 X1⋅X2 项),则模型将无法很好的描述变量之间的关系,极有可能导致很大的泛化误差(generalization error)
自相关性(Autocorrelation)
自相关性经常发生于时间序列数据集上,后项会受到前项的影响。当自相关性发生的时候,我们测得的标准差往往会偏小,进而会导致置信区间变窄。
假设没有自相关性的情况下,自变量 X 的系数为
而标准差为 2.08 。假设同一样本是有自相关性的,测得的标准差可能会只有 1.20 ,所以置信区间也会从 (12.94,17.10) 缩小到 (13.82,16.22) 。
15.02
多重共线性性(Multicollinearity)
如果我们发现本应相互独立的自变量们出现了一定程度(甚至高度)的相关性,那我们就很难得知自变量与因变量之间真正的关系了。
当多重共线性性出现的时候,变量之间的联动关系会导致我们测得的标准差偏大,置信区间变宽。
采用岭回归,Lasso回归或弹性网(ElasticNet)回归可以一定程度上减少方差,解决多重共线性性问题。因为这些方法,在最小二乘法的基础上,加入了一个与回归系数的模有关的惩罚项,可以收缩模型的系数。
岭回归: =argminβ∈Rp(∥y−Xβ∥22+λ∥β∥22)
Lasso回归: =argminβ∈Rp(∥y−Xβ∥22+λ∥β∥1)
弹性网回归: =argminβ∈Rp(∥y−Xβ∥22+λ1∥β∥1+λ2∥β∥22)
where∥Z∥p=(∑i=1N|Zi|p)(1/p)
异方差性(Heteroskedasticity)
异方差性的出现意味着误差项的方差不恒定,这常常出现在有异常值(Outlier)的数据集上,如果使用标准的回归模型,这些异常值的重要性往往被高估。在这种情况下,标准差和置信区间不一定会变大还是变小。
误差项( ε )应呈正态分布
如果误差项不呈正态分布,意味着置信区间会变得很不稳定,我们往往需要重点关注一些异常的点(误差较大但出现频率较高),来得到更好的模型。
线性性 & 可加性
观察残差(Residual)/估计值(Fitted Value, Y^ )图。
相较于图一(残差随机分布),图二的残差明显呈现了某种二次型趋势,说明回归模型没有抓住数据的某些非线性特征。
为了克服非线性性的影响,我们可以对自变量做一些非线性变换,如 log(X),X−−√,X2..etc
自相关性(Autocorrelation)
观察杜宾-瓦特森统计量(Durbin-Watson Statistic)
该统计量的值落在 (0,4) 内, DW=2 意味着没有自相关性, 0<DW<2 表明残差间有正的相关性, 2<DW<4 表明残差间有负的相关性。
经验上,如果 DW<1 或 DW>3 ,则自相关性已经达到了需要示警的水平。如果事先给定了检验的方向(正/负相关性)和置信度 α ,也可以根据假设检验的思路进行对应计算。
多重共线性性(Multicollinearity)
首先,可以通过观察自变量的散点图(Scatter Plot)来进行初步判断。
然后,针对可能存在多重共线性性的变量,我们观察其方差膨胀系数(VIF–Variance Inflation Factor)
假设回归模型为:
对于变量 Xj ,可证得,其估计系数 βj 的方差为:
其中唯一与其它自变量有关的值是 R2j , R2j 是 Xj 关于其它自变量回归的残差:
11−R2j 便称作 VIF ,若 VIF<3 ,说明该变量基本不存在多重共线性性问题,若 VIF>10 ,说明问题比较严重。
异方差性(Heteroskedasticity)
观察残差(Residual)/估计值(Fitted Value, Y^ )图。
若该图呈现如上图所示的“漏斗形”,即随着 Y^ 的变化,残差有规律的变大或变小,则说明存在明显的异方差性。
或观察残差的标准差( StandardizedResidual−−−−−−−−−−−−−−−−−−√ )/估计值图(Scale Location Plot)。
也可以看出,异方差数据集呈现出明显的趋势性。
为了克服异方差性的影响,我们可以对因变量做一些非线性变换,如 log(Y),Y−−√..etc
误差项( ε )应呈正态分布
方法一:观察Q-Q Plot (quantile-quantile plot)
如果误差项满足正态分布,Q-Q Plot里的散点会近似的落在一条直线上。若不满足正态分布,则散点会偏离该直线。
方法二:进行正态检验–如Kolmogorov-Smirnov检验,Shapiro–Wilk检验
如果走在了错误的道路上,就算健步如飞,也只会渐行渐远。回归分析是久经考验的很有效的分析手段,但在使用的过程中,我们一定要时刻注意数据集是否满足建模的基本假设,是否需要调整。上述的图表在用R做回归时都会自动生成,更好的理解和观察它们会帮助我们更好地运用回归分析!
有诗云:
悟以往之不谏,知来者之可追。实迷途其未远,觉今是而昨非。
舟遥遥以轻扬,风飘飘而吹衣。问征夫以前路,恨晨光之熹微。
–《归去来兮辞》
今天的分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。
上一篇
已是最后文章
下一篇
已是最新文章