• [解決済み] pytorchのreshapeとviewの違いは何ですか?

    質問 numpyでは ndarray.reshape() を使用して配列の形状を変更します。 私は、pytorchでは、人々が torch.view(...) を使用すると、同じ目的で、同時に torch.reshape(...) が存在する。 そこで気になるのが、両者の違いや、どちらを使うべきかということです。 どのように解決するのですか? torch.view

    2022-04-27 14:54:44
  • テンソルコード可視化-Pytorch

    TensorBoard <スパン は、ブラウザベースの優れた機械学習可視化ツールです。以前はtensorflowの王道的な可視化ツールで、tensorboardはtfのテンソルを直接読めないので、しかし ログを読み込んで可視化する . そこで、他のフレームワークでは、可視化のために単純にテンソルボードで読めるログを生成している。 以前は、pytorchの

    2022-03-02 22:05:41
  • pytorchのマルチGPU利用 - #CUDA_VISIBLE_DEVICES use #torch.nn.DataParallel() #エラー解決

    <パス 記事目次 0. グラフィックカード番号(プライマリーカードは何か) 1. 存在するすべてのグラフィックカードを使用する 2. グラフィックカードを使用する番号を指定する 3. os.environ["CUDA_VISIBLE_DEVICES"の詳細 3.1. ["CUDA_VISIBLE_DEVICES"] を使用

    2022-03-01 18:17:34
  • RuntimeError: CUDAエラー: 不正なメモリアクセスが発生しました。

    テキスト認識にpytorchを使用した場合、タイトルにエラーが発生します。 1. トレーニングの前に以下の文を追加してください。 torch.backends.cudnn.benchmark = True は動作しませんでした。 2. batch_sizeを64から32に変更します。 を使用しませんでした。 3. トレーニングの前に以下の文を追加しま

    2022-03-01 10:58:01
  • pytorchのConv1dの詳細説明

    ブロガーは転載を歓迎しますが、必ず出典を明記した上でオリジナルのリンクを貼ってください ありがとうございます。 pytorchのnn.Conv1dについて説明します。 (最初にまとめたときはこんなに多くの人に読んでもらえるとは思っていなかったし、質問も結構ありました。いつもCSDNにログインしていないため、コメントへの返信がタイムリーにできないことがあります。Zhihuを

    2022-02-28 08:07:58
  • pytorchのnn.convのパラメータ群について

    <パス pytorchのnn.convのパラメータについて 以前はtensor flow +kerasを使っていましたが、最近pytorchに乗り換えたところ、torchの畳み込みパラメータがtensorflowのものと少し違うことが分かったので、ここに記録します。 tensorflowとは異なり、in_channelsとout_channelsはそれぞれ入

    2022-02-28 07:14:30
  • torch.nn.Conv1dと1次元畳み込みの説明

    <パス 最近、wavenetの作業をしていて、1次元畳み込みに出会ったので、次回の使用のために、1次元畳み込みとそのAPIをpytorchでまとめておきます。 私が初めて1次元畳み込みに出会ったとき、1次元畳み込みカーネルが1行で畳み込んでいるのだと思ったが、この理解は間違っていた。1次元畳み込みは、畳み込みカーネルが1次元であるということではなく、また畳み込まれる特徴量も1

    2022-02-28 03:13:53
  • EOFError: 入力がなくなった

    Windowsでpytorchを使用してモデルを学習する際に発生する具体的なエラーは以下の通りです。 トレースバック (最新の呼び出し)。   ファイル "train.py", 行 49, in <module>     data_loader_iter = iter(data_loader)   ファイル "D:\anaco

    2022-02-27 04:12:53
  • 顔キーポイント検出(データ読み込み、処理)

    参考にしてください。 データの読み込みと加工 公式サイトチュートリアル プログラミング初心者が最初に悩むのは、ネットワークに流すデータを読み込むコードをどう書けばいいのかわからないことかもしれません。この記事では、この部分のコードを書くための一般的な方法とプログラミングのアイデアに焦点を当てます。内容は基本的に、公式ドキュメントの翻訳と要約です。 データ ダ

    2022-02-25 16:08:24
  • Silve pil.unidentifiedimageerror: cannot identify image file

    <パス ブログでいろいろな解決策を試しましたが、どれもうまくいきません。もちろん、元画像を置き換えることは可能ですが、データセットが巨大なため、一つ一つ置き換えるのは時間がかかりますし、一括で置き換えるのもやはりこの問題が発生します。 回避策 ピローライブラリを再インストールする pip uninstall pillow pip install pillow

    2022-02-25 07:03:49
  • pytorchにおける次元とそのsqueeze()、unsqueeze()関数の理解

     I. テンソルの次元を理解する TensorFlowではテンソルの次数、次元、形状が明確に定義されていますが、pytorhでの定義は曖昧で、テンソルの大きさを見るにはtorch.size()関数しかありません(サイズというのはTensorFlowのテンソルの形状の記述で、Numpyの .shapeと似たような意味合いです)。そこで、まず、テンソルの形状を見る方法を考えよう。

    2022-02-23 18:21:49
  • PyTorchのF.cross_entropy()関数

    F.cross_entropy()をPyTorchで理解する PyTorchはクロスエントロピーを求めるために2つの一般的な関数を提供しています。 1つはF.cross_entropy()で、もう1つは もう一つは、F.nll_entropy()で、これは は、F.cross_entropy(input, target)のパラメータtargetについて、以下のように説明さ

    2022-02-21 05:40:36
  • ピトーチテンソルインデックス

    i. pytorchは最も値の大きいインデックスを返す。 1 公式ドキュメント 1.1 torch.argmax()の紹介  最大値の添え字を返します。 Function. torch.argmax(input, dim, keepdim=False) → LongTensor Return value. Returns the indi

    2022-02-21 03:25:59
  • AttributeError: 'Graph' オブジェクトには 'node' という属性がありません。

    <パス Traceback (most recent call last): File "src/main.py", line 24, in <module> main() File "src/main.py", line 18, in main clustering_machine.decompose() File "/root/userfo

    2022-02-20 22:07:41
  • pytorch-DataLoader (データイテレータ)

    &lt;パス このブログでは、pytorchフレームワークについて説明し DataLoader 各メソッドは例題付きで紹介されており、ちょっと複雑ですが、黙って見ていれば理解できますよ :) &lt;マーク 個人的なアドバイス <!--マーク 1.1.1節で紹介した3つの方法のうち、推奨されるのは (方法3は複雑すぎて推奨できない)、3項の処理例では非 Met

    2022-02-20 04:44:49
  • pytorchラーニングノート(XIV)。DataLoaderのソースコード読み込み

    &lt;パス pytorch インターフェースのデータロード部分は、既存の深層学習フレームワークの中で間違いなく最もよく設計されており、十分な柔軟性を与えてくれます。このブログ記事では、pytorchのマルチスレッドローディングモジュール( DataLoader ) を使ってソースコードのアノテーションを行います。 入力パイプライン pytorch 入力パイプライ

    2022-02-18 02:15:27
  • torch.catとtorch.stackの違いについて

    torch.cat(seq, dim=0, out=None) # concatenate the tensors in seq along dim, all tensors must have the same size or be empty, the opposite operations are torch.split() and torch.chunk() torch.stack(seq

    2022-02-17 23:11:03
  • pytorchのSpeat()関数

    &lt;パス pytorchのrepeat()関数はテンソルのコピーを作成します。 引数が2つだけの場合、第1引数は複製後の列数、第2引数は複製後の行数を示す。 パラメータが3つの場合、第1パラメータはコピー後のチャンネル数、第2パラメータはコピー後のカラム数、第3パラメータはコピー後の行数を示す。 次に、例を挙げてイメージしてみましょう。 &gt;&gt;&gt;

    2022-02-17 19:57:52
  • [解決済み] Pytorch ある割合で特定の値を持つランダムなint型テンソルを作成する方法は?例えば、25%が1で残りが0というような。

    質問 pytorchでは、0と1のテンソルをそれぞれ50%程度の分布でランダムに作成することができます。 import torch torch.randint(low=0, high=2, size=(2, 5)) 25%だけが1で、残りは0というテンソルを作るにはどうしたらいいでしょうか? どのように解決するのですか? 私の回答はこちらです。 PyTorchでテンソルの

    2022-02-17 11:52:08
  • Pytorch torch.Tensor.detach()メソッドの使い方と、指定したモジュールの重みを変更する方法

    デタッチ detachの正式な解釈は、現在の計算グラフから分離した新しいTensorを返すことである。 返されたTensorは元のTensorと同じ記憶領域を共有するが、返されたTensorがグラディエントを必要とすることはないことに注意すること。 import torch as t a = t.ones(10,) b = a.detach() print(b) tens

    2022-02-17 11:45:14