1. ホーム
  2. python

[解決済み] Numpyは自動的にGPUを検出して使用するのですか?

2022-03-02 09:35:41

質問

GPU (nvidia GTX 1080 Ti)を使ったNumpyの使用について、いくつかの基本的な質問があります。 私はGPUの初心者で、Numpy/Pythonを加速するためにGPUを適切に使用することを確認したいです。 しばらくインターネットで検索しましたが、私の質問に対応する簡単なチュートリアルは見つかりませんでした。 誰かが私にいくつかのポインタを与えることができれば、私はそれを感謝します。

1) Numpy/PythonはGPUの存在を自動的に検出し、行列計算を高速化するためにそれを利用しますか(例:numpy.multiply, numpy.linalg.inv, ... など)。 あるいは、高速計算のためにGPUを利用する特定の方法でコードを書かなければならないのでしょうか?

2) GPU(nvidiaの)でNumpy/Pythonを使うための良いチュートリアル/入門資料をどなたか紹介してくださいませんか?

ありがとうございました。

解決方法は?

<ブロッククオート

Numpy/PythonはGPUの存在を自動的に検知して、GPUを利用することができますか? を使用して、行列計算を高速化することができます(例:numpy.multiply, numpy.linalg.inv, ...など) を使用できますか?

いいえ。

それとも、GPUを高速に利用するために、特定の方法でコードを書かなければならないのでしょうか? 計算を行うことができますか?

GPUでPythonを加速するためのさまざまなパラダイムについては、Numba、CuPy、Theano、PyTorch、PyCUDAを検索してください。