Compute Prof(cuda/opencl)を使用したブロックごとに静的に割り当てられた共有メモリのサイズ
質問
NvidiaのCompute Profには、「ワークグループごとの静的プライベートMem」という列があり、そのツールチップには「ブロックごとに静的に割り当てられた共有メモリのサイズ」と書かれています。私のアプリケーションは、ブロックごとに64(バイト)を取得していることを示しています。それは、私がそれらのバイトの1〜64の間のどこかを使用していることを意味しますか、それともプロファイラーは、この量の共有メモリが割り当てられ、それがまったく使用されているかどうかを知っていることを私に言っているだけですか?
解決
割り当てられている場合、それはおそらくあなたがそれを使用したからでしょう。 Afaik Cudaは、共有メモリを介してパラメーターをカーネルに渡すので、それでなければなりません。
所属していません StackOverflow