📜  多变量优化 – Gradient 和 Hessian

📅  最后修改于: 2022-05-13 01:58:08.953000             🧑  作者: Mango

多变量优化 – Gradient 和 Hessian

在多元优化问题中,有多个变量充当优化问题中的决策变量。

z = f(x 1 , x 2 , x 3 .....x n )

因此,当您查看这些类型的问题时,一般函数z 可能是决策变量 x 1 、x 2 、x 3到 x n 的一些非线性函数。因此,可以操纵或选择 n 个变量来优化此函数z。请注意,可以使用二维图片来解释单变量优化,因为在 x 方向上我们有决策变量值,而在 y 方向上我们有函数值。但是,如果是多变量优化,那么我们必须使用三个维度的图片,如果决策变量大于2,则很难可视化。

坡度:
在解释梯度之前,让我们先对比一下单变量情况的必要条件。因此,在单变量优化的情况下,x 成为函数f(x) 的最小值的必要条件是:

一阶必要条件:f'(x) = 0

因此,一维情况下的导数成为我们所说的多元情况下的梯度。

根据单变量优化中的一阶必要条件,例如 f'(x) = 0 或一个也可以将其写为df/dx 。然而,由于在多元情况下有很多变量,我们有很多偏导数,并且函数f 的梯度是一个向量,这样在每个分量中都可以计算函数相对于相应变量的导数。所以,例如, \partial f/ \partial x_1是第一个组件, \partial f/ \partial x_2是第二个组件,并且\partial f/ \partial x_n是最后一个组件。

 Gradient = \nabla f = \begin{bmatrix} \partial f/ \partial x_1\\ \partial f/ \partial x_2\\ ...\\ ...\\ \partial f/ \partial x_n\\ \end{bmatrix}



黑森州
类似地,在单变量优化的情况下,x 是函数f(x) 的最小值的充分条件是:
二阶充分条件:f”(x) > 0 或 d 2 f/dx 2 > 0