なぜ2つの等しいパワーを選んだニューロンまたは畳み込みの数があるのですか?

datascience.stackexchange https://datascience.stackexchange.com/questions/16416

質問

ニューラルネットワークに捧げられた圧倒的な数の作品では、著者らは、各層が多くのニューロンが2のパワーであるArhitechureを示唆しています

この選択の理論的理由(前提条件)は何ですか?

役に立ちましたか?

解決

ディープニューラルネットワークは通常、トレーニング時間を高速化するためにGPUでトレーニングされます。ネットワークトポロジに2つのパワーを使用すると、コンピューターゲームの画像テクスチャに2つのパワーを使用するのと同じロジックに従います。

GPUは、2人の力で作業する際の効率に関連する最適化を活用できます。 (見る https://gamedev.stackexchange.com/questions/26187/why-are-textures-always-square-powers-of-two-what-if-they-arent)

他のヒント

それは単なるarbitrary意的な選択です。 1つの数値とマグニチュードの順序は重要ではありませんが、正確な値ではありません。 2つの力は自然に感じます。

そうは思わない場合は、特定のアーキテクチャで評価してください。ニューロンの数を2つのパワーから少ない数に減らします。時間が増えた場合、あなたは私が間違っていることを証明しました。

ライセンス: CC-BY-SA帰属
所属していません datascience.stackexchange
scroll top