本文共 2101 字,大约阅读时间需要 7 分钟。
我们通过OLS估计量得到了一元线性回归的两个参数估计量,具体表达式如下:
[\hat\beta_1 = \frac{\sum x_i y_i}{\sum x_i^2}, \quad \hat\beta_0 = \bar Y - \hat\beta_1 \bar X.]
回归模型的总体形式为:
[Y = \beta_0 + \beta_1 X + \mu,]
其中误差项(\mu)服从正态分布(N(0, \sigma^2))。这种正态性使得我们能够利用数理统计的方法,获得参数估计量的优良性质,包括区间估计和假设检验。
OLS估计量具有最佳线性无偏估计(Best Linear Unbiased Estimator, BLUE)的性质,这意味着估计量满足以下三个条件:
我们可以通过以下步骤验证估计量的线性性:
[\hat\beta_1 = \sum_{i=1}^n k_i Y_i,]
其中(k_i = \frac{x_i}{\sum x_i^2})。
[\hat\beta_0 = \sum_{i=1}^n w_i Y_i,]
其中(w_i = \frac{1}{n} - \bar X k_i)。
因此,(\hat\beta_0)和(\hat\beta_1)都可以表示为(Y_i)的线性组合,进一步说明估计量的线性性。
通过计算期望值,我们可以验证估计量的无偏性:
[\mathbb E(\hat\beta_1) = \beta_1, \quad \mathbb E(\hat\beta_0) = \beta_0.]
由于估计量的均值等于真实参数值,说明估计量是无偏的。
为了证明估计量的最小方差性,我们可以构造一个线性无偏估计量(\hat\beta_1^* = \hat\beta_1 + \sum_{i=1}^n d_i Y_i),并证明其方差不小于估计量的方差(\mathbb D(\hat\beta_1))。
通过计算方差差异,可以得出:
[\mathbb D(\hat\beta_1^*) \geq \mathbb D(\hat\beta_1).]
因此,(\hat\beta_1)是最小方差的线性无偏估计量。
在正态性假定下,参数估计量的分布已知:
[\hat\beta_1 \sim N\left(\beta_1, \frac{\sigma^2}{\sum x_i^2}\right),][\hat\beta_0 \sim N\left(\beta_0, \frac{\sum X_i^2}{n \sum x_i^2} \sigma^2\right).]
为了进行参数估计,我们需要估计误差项的方差(\sigma^2)。通过计算残差平方和,可以得到无偏估计量:
[\hat\sigma^2 = \frac{\sum e_i^2}{n-2}.]
基于估计的方差和假设检验,我们可以构造参数的置信区间。例如,(\hat\beta_1)的置信区间为:
[\left[\beta_1 - \frac{\hat\sigma}{\sqrt{\frac{\sum x_i^2}{n \sum x_i^2}}}, \beta_1 + \frac{\hat\sigma}{\sqrt{\frac{\sum x_i^2}{n \sum x_i^2}}}\right].]
假设检验的核心是验证参数的估计值是否与假设值存在显著差异。通过枢轴量和分布特性,我们可以构造检验统计量,并根据其分布来判断是否拒绝原假设。
例如,对于(\beta_1)的假设检验:
[H_0: \beta_1 = 0 \quad \leftrightarrow \quad H_1: \beta_1 \neq 0,]
我们构造枢轴量:
[\frac{\hat\beta_1}{\sqrt{\frac{\hat\sigma^2}{\sum x_i^2}}} \sim t(n-2).]
观测值(t_0)与假设检验统计量的比较可以得出结论:
通过实际数据计算,我们得到了回归方程:
[Y = 1.3269X - 160.5962.]
残差平方和为354.4404,误差项方差估计值为:
[\hat\sigma^2 = \frac{354.4404}{8-2} = 59.0734.]
回归结果表明,斜率和截距都得到了统计学上显著的估计值。具体分析包括:
通过这些结果,我们可以判断回归模型的效果,并进一步分析变量间的关系。
转载地址:http://epbyz.baihongyu.com/