今天咱们来讲讲12MA-E3-8.4这个版本的模型变量,主要就是想稍微深挖一下前面帮我们算出经验回归方程的那两个关键方程组。别看这部分短,它能把最小二乘法的底层逻辑讲得特别通透。先把这两个方程组最初的模样再摆出来看看,其实就是把两边都求了个导数,样子稍微变了变。咱们不急着把它们化简,先把那些代数符号全都换成实际的变量,因为咱们现在要研究的是误差的性质。这时候你会发现右边的常数-2其实可以直接给丢了,反正右边是0,除以任何非零数还是0。这样一来,这组方程就变得特别简洁又直观了。 第一个方程(1)想说的是,不管你用这条经验回归直线去预测什么数据,它一定会让所有误差加起来的和是0。你可以把这理解成平均下来,你的模型既不会总高估也不会总低估,而是有高有低地均匀分布着。说白了就是这条直线大概能把数据点平均分成两半,不会一头压死所有点或者垫在下面。这也是为啥最小二乘法能做到这点,因为最后解得的式子要求这条直线必须得经过数据的中心点。解方程的每一步都是互相能推出来的,所以咱们严谨地证明了:只有当这条预测线穿过均值点的时候,误差的平均值才是0。看看图4.1那三条过均值点的线就明白了。 第二个方程(2)就更有意思了,它规定误差用x加权之后的总和也得是0。这个式子的直观感觉可能没上一个强,但仔细想想还是能明白它的道理——就是让误差的波动在x轴上变得平衡均匀。你看图4.1里的那三个例子,只有图4.1B的误差在x轴方向分布得最均匀。图4.1A左边全是负的大误差,右边全是正的大误差;图4.1C正好反过来。它们三个的共同点是——因为总误差和得为0,所以必须得靠这种不对称的误差分布才能达到平衡。而我们又会发现图4.1A的结果显著大于0,图4.1C的结果显著小于0,只有图4.1B的结果刚好等于0。 为什么会这样呢?原因就在于我们把误差按x的值进行了加权处理。这样一来,图4.1A左边那些负的大误差(因为x比较小),它们的相对影响就被削弱了;而右边那些正的大误差(因为x比较大),它们的相对影响反而被加强了。这种不平衡导致了图4.1A的结果大于0。图4.1C也是一样的道理。加权平均值其实就是在帮咱们看出这种不对称性。所以说误差的加权平均值等于0的直观含义就是——波动必须得尽量在x轴方向上均匀地分布才行。有了这个条件后,咱们就能在过均值点的所有直线里挑出一条唯一的斜率来确定这条经验回归直线了。 比如在上面的三幅图里选图4.1B对应的那条斜率,这就定下来了唯一的那条线,而且咱们也顺便掌握了它的误差性质。