[解決済み] pytorch - loss.backward() と optimizer.step() の間の接続。
質問
の間の明示的な接続はどこにあるのでしょうか?
optimizer
と
loss
?
オプティマイザは、以下のような呼び出しなしに、損失の勾配をどこで取得するかをどのように知ることができるのでしょうか?
optimizer.step(loss)
?
-より詳細な文脈
損失を最小化するとき、オプティマイザに勾配を渡す必要がなかった。
loss.backward() # Back Propagation
optimizer.step() # Gardient Descent
どのように解決するのですか?
pytorchの内部を深く掘り下げることなく、単純化した答えを提供することができます。
を初期化するとき
optimizer
を初期化するとき、更新すべきモデルのパラメータ(テンソル)を明示的に指示することを思い出してください。勾配はテンソル自身によって保存されます (テンソルには
grad
と
requires_grad
属性) を呼び出したら
backward()
を呼び出すと、損失が発生します。モデル内のすべてのテンソルについて勾配を計算した後、その勾配に対して
optimizer.step()
を呼び出すと、オプティマイザは更新すべき全てのパラメータ(テンソル)に対して反復処理を行い、内部に保存されている
grad
を使って値を更新します。
計算グラフとpytorchテンソルに格納された追加のquot;grad"情報についての詳細な情報は この回答 .
オプティマイザによるパラメータの参照は、モデルをGPUに移動した場合など、トラブルの原因となることがあります。 後 オプティマイザーを初期化した後にモデルを GPU に移動した場合などです。 モデルの設定が終わっていることを確認し の前に オプティマイザを構築する前に、モデルの設定が終わっていることを確認してください。参照 この回答 をご覧ください。
関連
-
[解決済み】TensorFlowでtf.gradientsが動作する方法
-
[解決済み] PyTorchのバックワード関数
-
[解決済み] Kerasにおける "Flatten "の役割とは?
-
[解決済み] イプシロン貪欲q学習におけるイプシロンと学習率の減衰について
-
[解決済み] サポートベクターマシンに対する人工ニューラルネットワークの優位性は何ですか?[終了しました]
-
[解決済み】PyTorchでzero_grad()を呼び出す必要があるのはなぜ?
-
[解決済み】同じ問題で binary_crossentropy と categorical_crossentropy が異なる性能を示すのはなぜか?
-
[解決済み] Windowsの.batファイルにプロセスを強制終了させる方法を教えてください。[クローズド]。
-
[解決済み] クロスエントロピーとは?[クローズド]
-
[解決済み] トレーニング中のナンの原因
最新
-
nginxです。[emerg] 0.0.0.0:80 への bind() に失敗しました (98: アドレスは既に使用中です)
-
htmlページでギリシャ文字を使うには
-
ピュアhtml+cssでの要素読み込み効果
-
純粋なhtml + cssで五輪を実現するサンプルコード
-
ナビゲーションバー・ドロップダウンメニューのHTML+CSSサンプルコード
-
タイピング効果を実現するピュアhtml+css
-
htmlの選択ボックスのプレースホルダー作成に関する質問
-
html css3 伸縮しない 画像表示効果
-
トップナビゲーションバーメニュー作成用HTML+CSS
-
html+css 実装 サイバーパンク風ボタン
おすすめ
-
[解決済み】TensorFlowでtf.gradientsが動作する方法
-
[解決済み] エアフローとKubeflowパイプラインの違いは何ですか?
-
[解決済み】ニューラルネットワークにおけるバイアスの役割とは?[クローズド]
-
[解決済み】線形回帰とロジスティック回帰の違いは何ですか?[クローズド]
-
[解決済み】教師あり学習と教師なし学習の違いは何ですか?[終了しました]
-
[解決済み] Diablo 2をプレイするための人工ニューラルネットワークを視覚的に学習させる方法とは?
-
[解決済み] Appleはどのように電子メールの日付、時間、アドレスを見つけるのですか?
-
[解決済み] フィーチャーとラベルの違いは何ですか?[クローズド]
-
[解決済み] 多層パーセプトロン(MLP)アーキテクチャ:隠れ層の数とサイズを選択する基準?[クローズド]
-
[解決済み] トレーニング中のナンの原因