最小二乘法为什么使用残差平方和而不用残差和?

递归最小二乘法原理(机器学习之最小二乘法)(1)

  • n个离差构成的总离差越小越好,只有如此才能使直线最贴近已知点。换句话说,求回归直线方程的过程其实就是求离差最小值的过程,也就是求最优参数的过程,机器学习训练模型也是求最优参数的过程,训练线性回归就是求最优参数。

  • 一个很自然的想法是把各个离差加起来作为总离差。可是,由于离差有正有负,直接相加会互相抵消,就无法反映这些数据的贴近程度,即这个总离差不能用n个离差之和来表示,见下图:

  • 递归最小二乘法原理(机器学习之最小二乘法)(2)

    离差

    递归最小二乘法原理(机器学习之最小二乘法)(3)

    离差平方和公式

    递归最小二乘法原理(机器学习之最小二乘法)(4)

    离差平方和最小时b和a的值

    推导过程如下:

    递归最小二乘法原理(机器学习之最小二乘法)(5)

    递归最小二乘法原理(机器学习之最小二乘法)(6)

    递归最小二乘法原理(机器学习之最小二乘法)(7)

    递归最小二乘法原理(机器学习之最小二乘法)(8)

    到此,公式推导完成,从最后公式可以看出后两项

    递归最小二乘法原理(机器学习之最小二乘法)(9)

    与a、b无关,属于常数项

    与a、b无关,属于常数项,所以要想让最小二乘法的平方差最小,只需要让

    递归最小二乘法原理(机器学习之最小二乘法)(10)

    只需让前面的项为0

    这样可以得到误差平方和最小时b(斜率)和a截距的值:

    递归最小二乘法原理(机器学习之最小二乘法)(11)

    ,