📜  PyTorch均方误差

📅  最后修改于: 2020-11-11 00:42:08             🧑  作者: Mango

均方误差

均方误差的计算方法与之前的一般损耗方程式大致相同。我们还将考虑偏差值,因为这也是在训练过程中需要更新的参数。

(y-Ax + b)2

均方误差最好用图示说明。

假设我们有一组值,我们首先像以前一样绘制一些回归线参数,其大小由一组随机的权重和偏差值确定。

误差对应于实际值与预测值之间的距离-它们之间的实际距离。

对于每个点,通过使用以下公式将我们的线模型得出的预测值与实际值进行比较来计算误差

每个点都与一个错误相关联,这意味着我们必须对每个点进行误差求和。我们知道预测可以重写为

在计算均方误差时,我们必须除以数据点的数量来取平均值。现在前面提到的误差函数的梯度应该将我们带入误差最大增加的方向。

朝成本函数梯度的负值移动,我们朝着最小误差的方向移动。我们将使用此坡度作为指南针,使我们始终走下坡路。在梯度下降中,我们忽略了偏差的存在,但是对于误差,都需要定义参数A和b。

现在,我们下一步将计算每个的偏导数,并且像从任何A和b值对开始一样。

基于上面提到的两个偏导数,我们使用梯度下降算法在最小误差方向上更新A和b。对于每次迭代,新的权重等于

A1 = A0-∝ f'(A)

并且新的偏差值等于

b1 = b0-∝ f'(b)

编写代码的主要思想,即,我们从具有随机一组权重和偏差值参数的随机模型开始。该随机模型将倾向于具有较大的误差函数,较大的成本函数,然后使用梯度下降沿最小误差的方向更新模型的权重。最小化该错误以返回最佳结果。