📜  PyTorch的梯度

📅  最后修改于: 2020-11-10 09:53:54             🧑  作者: Mango

PyTorch的梯度

在本节中,我们讨论了派生工具及其如何在PyTorch上应用。所以开始吧

梯度用于查找函数的导数。用数学术语来说,导数表示部分区分函数并找到值。

下面是如何计算函数导数的图。


我们在上图中完成的工作将在带有渐变的PyTorch中完成。有以下步骤可以找到该函数的导数。

1.我们首先要初始化函数(y = 3×3 + 5×2 + 7x + 1),然后为其计算导数。

2.下一步是设置函数使用的变量的值。 x的值以以下方式设置。

X= torch.tensor (2.0, requires_grad=True)

我们通常需要一个梯度来找到函数的导数。

3.接下来是计算衍生物的函数只需通过使用向后()方法。

4.最后一步是使用grad访问或print导数的值。

让我们看一个寻找导数的例子

import torch
x=torch.tensor(2.0, requires_grad=True)
y=8*x**4+3*x**3+7*x**2+6*x+3
y.backward()
x.grad

输出:

tensor(326.)

另一个例子

import torch
x=torch.tensor(2.0, requires_grad=True)
z=torch.tensor(4.0, requires_grad=True)
y=x**2+z**3
y.backward()
x.grad
z.grad

输出:

tensor(4.)
tensor(48.)