1. ホーム
  2. python

[解決済み] PyTorch autograd -- gradはスカラー出力に対してのみ暗黙的に作成することができます。

2022-02-28 10:49:24

質問

を使用しています。 autograd ツールで PyTorch そして、1次元のテンソルの値に整数のインデックスでアクセスする必要があることに気がついた。このようなものだ。

def basic_fun(x_cloned):
    res = []
    for i in range(len(x)):
        res.append(x_cloned[i] * x_cloned[i])
    print(res)
    return Variable(torch.FloatTensor(res))


def get_grad(inp, grad_var):
    A = basic_fun(inp)
    A.backward()
    return grad_var.grad


x = Variable(torch.FloatTensor([1, 2, 3, 4, 5]), requires_grad=True)
x_cloned = x.clone()
print(get_grad(x_cloned, x))

以下のエラーメッセージが表示されます。

[tensor(1., grad_fn=<ThMulBackward>), tensor(4., grad_fn=<ThMulBackward>), tensor(9., grad_fn=<ThMulBackward>), tensor(16., grad_fn=<ThMulBackward>), tensor(25., grad_fn=<ThMulBackward>)]
Traceback (most recent call last):
  File "/home/mhy/projects/pytorch-optim/predict.py", line 74, in <module>
    print(get_grad(x_cloned, x))
  File "/home/mhy/projects/pytorch-optim/predict.py", line 68, in get_grad
    A.backward()
  File "/home/mhy/.local/lib/python3.5/site-packages/torch/tensor.py", line 93, in backward
    torch.autograd.backward(self, gradient, retain_graph, create_graph)
  File "/home/mhy/.local/lib/python3.5/site-packages/torch/autograd/__init__.py", line 90, in backward
    allow_unreachable=True)  # allow_unreachable flag
RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

私は一般的に、ある変数のクローン版を使用することで、その変数がグラデーション計算に使用され続けることになるのか、少し疑問を持っています。その変数自体は、事実上 A を呼び出すと A.backward() のように、その操作の一部であってはならない。

この方法について、あるいは、勾配の履歴を失わず、かつ、1次元テンソルに対して requires_grad=True !

**編集部(9月15日):**。

res は1〜5の2乗値を含む0次元のテンソルのリストである。1.0, 4.0, ..., 25.0]を含む一つのテンソルを連結するために、私は以下のように変更した。 return Variable(torch.FloatTensor(res))torch.stack(res, dim=0) を生成します。 tensor([ 1., 4., 9., 16., 25.], grad_fn=<StackBackward>) .

しかし、私はこの新しいエラーに遭遇しました。 A.backward() という行があります。

Traceback (most recent call last):
  File "<project_path>/playground.py", line 22, in <module>
    print(get_grad(x_cloned, x))
  File "<project_path>/playground.py", line 16, in get_grad
    A.backward()
  File "/home/mhy/.local/lib/python3.5/site-packages/torch/tensor.py", line 93, in backward
    torch.autograd.backward(self, gradient, retain_graph, create_graph)
  File "/home/mhy/.local/lib/python3.5/site-packages/torch/autograd/__init__.py", line 84, in backward
    grad_tensors = _make_grads(tensors, grad_tensors)
  File "/home/mhy/.local/lib/python3.5/site-packages/torch/autograd/__init__.py", line 28, in _make_grads
    raise RuntimeError("grad can be implicitly created only for scalar outputs")
RuntimeError: grad can be implicitly created only for scalar outputs

解決方法は?

を変更しました。 basic_fun を以下のように変更したところ、問題が解決しました。

def basic_fun(x_cloned):
    res = torch.FloatTensor([0])
    for i in range(len(x)):
        res += x_cloned[i] * x_cloned[i]
    return res

このバージョンはスカラー値を返します。