1. ホーム
  2. pytorch

Pytorch torch.Tensor.detach()メソッドの使い方と、指定したモジュールの重みを変更する方法

2022-02-17 11:45:14

デタッチ

detachの正式な解釈は、現在の計算グラフから分離した新しいTensorを返すことである。

返されたTensorは元のTensorと同じ記憶領域を共有するが、返されたTensorがグラディエントを必要とすることはないことに注意すること。

import torch as t

a = t.ones(10,)
b = a.detach()
print(b)
tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])


では、この関数は何をするのでしょうか?
-ネットワークAがTensor型の変数aを出力し、aがネットワークBの入力として渡され、損失関数を通してネットワークBのパラメータをバックプロパゲートしたいが、ネットワークAのパラメータは変更したくない場合、 detcah() メソッドを使用することができます。

a = A(input)
a = detach()

b = B(a)
loss = criterion(b, target)
loss.backward()


実例を見るには

import torch as t
x = t.ones(1, requires_grad=True)
x.requires_grad #True
y = t.ones(1, requires_grad=True)
y.requires_grad #True

x = x.detach() #After separation
x.requires_grad #False

y = x+y #tensor([2.])
y.requires_grad #I am still True
y.retain_grad() #y is not a leaf tensor, add this line

z = t.pow(y, 2)
z.backward() #backpropagate

y.grad #tensor([4.])
x.grad #None


上記のコードでは、バックプロパゲーションはyで終了し、xには到達していないので、xのgradプロパティはNoneです。


さて、ここまでモデルの重みを変更することについて話してきましたが、もうひとつ別のケースがあります。
ネットワークAがTensor型変数aを出力し、aがネットワークBの入力として渡される場合、損失関数をバックプロパゲートすることによってネットワークAのパラメータを修正したいが、ネットワークBのパラメータは修正したくない場合はどうすればよいだろうか。

Tensor.requests_gradプロパティを使用し、requests_gradをFalseに変更すれば良いのです。

for param in B.parameters():
	param.requires_grad = False

a = A(input)
b = B(a)
loss = criterion(b, target)
loss.backward()