Domanda

Nel numero enorme di opere dedicate alle reti neurali, gli autori suggeriscono arhitechure in cui ogni strato è un numero di neuroni è potenza di 2

quali sono le ragioni teoriche (prerequisiti) di questa scelta?

È stato utile?

Soluzione

profonde Reti Neurali di solito sono addestrati su GPU per velocizzare i tempi di formazione. Utilizzando potenza di due per la topologia di rete segue la stessa logica con potenza di due per le texture immagine di giochi per computer.

La GPU possono usufruire di ottimizzazioni legate alla efficienza nel lavoro con potenze di due. (Vedi https: // gamedev.stackexchange.com/questions/26187/why-are-textures-always-square-powers-of-two-what-if-they-arent )

Altri suggerimenti

E 'solo una scelta arbitraria. Devi scegliere un numero e l'ordine delle questioni grandezza, ma non il valore esatto. Potenze di due si sentono semplicemente naturale.

Se non si pensa così: Valutare su una data architettura. Ridurre il numero di neuroni da una potenza di due ad un numero inferiore. Se il tempo aumenta, hai dimostrato me sbagliato.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top