📜  ML |线性回归中的正规方程

📅  最后修改于: 2021-04-17 03:04:55             🧑  作者: Mango

正则方程是具有最小二乘成本函数的线性回归的一种分析方法。我们可以不用Gradient Descent直接找出θ的值。当使用具有小特征的数据集时,采用这种方法是一种有效且省时的选择。

正规方程如下:

在上式中
θ:定义最佳的假设参数。
X:输入每个实例的特征值。
Y:每个实例的输出值。

方程背后的数学–

给定假设函数
在哪里,
n:不。数据集中的特征。
x 0 1(用于向量乘法)

请注意,这是θ和x值之间的点积。因此,为了方便解决,我们可以将其编写为:

线性回归的动机是使成本函数最小化:

  J(\Theta) = \frac{1}{2m} \sum_{i = 1}^{m} \frac{1}{2} [h_{\Theta}(x^{(i)}) - y^{(i)}]^{2}

在哪里,
x i i ih训练示例的输入值。
m:不。训练实例
n:不。数据集功能
y i第i实例的预期结果

让我们以向量形式表示成本函数。

我们在这里忽略了1 / 2m,因为它不会对工作产生任何影响。它在计算梯度下降时用于数学上的便利。但是这里不再需要。


x i j i ih训练示例中j ih特征的值。

这可以进一步简化为 X\theta - y
但是每个残差值都是平方的。我们不能简单地将上述表达式平方。因为向量/矩阵的平方不等于其每个值的平方。因此,要获得平方值,请将向量/矩阵与其转置相乘。因此,得出的最终方程为

因此,成本函数为

因此,现在使用导数获得θ的值







因此,这是最终得出的正规方程,其中θ给出最小成本值。