Domanda

Voglio memoria del computer mimica con libreria di rete neurale encog di Jeff Heaton. Io proprio non so cosa approccio da utilizzare.

La mia esigenza è quella di, avere una posizione di memoria e una raccolta di byte per i valori.

location [0000]:byte-data[0101010]
location [0001]:byte-data[0101010]

Questi sono i valori di passo al sistema di rete neurale.

Stavo cercando di evitare di riqualificazione della rete neurale ogni volta che cambia i dati di memoria. Ma forse questo è ciò che devo fare.

Quali tecniche di reti neurali volete utilizzare per realizzare quello che sto cercando di fare?

È stato utile?

Soluzione

Quello che stai cercando di fare non è un problema reti neurali sono poi così grandi a dato che sono meglio a modelli generalizzando, non li apprendimento. Tuttavia si può essere in grado di realizzare questo sia con reti neurali probabilistiche o una percezione normale. Si erano un po 'vago circa il tuo problema, quindi dovrò essere vago circa la mia risposta. Ho intenzione di assumere vuoi dire che si passa nei dati di memoria e poi "classificarlo" ad un indirizzo di memoria. In questo modo quando ci si allena la rete utilizzando un metodo di formazione supervisionata si sarà in grado di passare nei dati di memoria che è simile o uguale a un elemento esistente e la rete vi darà l'indirizzo. Si potrebbe anche fare la stessa cosa in senso inverso suppongo.

Se si utilizza una rete neurale probabilistica sarete essenzialmente essere di apprendimento di ogni singolo modello si passa alla rete. Certo poi ogni volta che si desidera memorizzare un nuovo indirizzo di memoria, si aggiunge un nuovo nodo alla rete, che rende le cose un po 'inefficiente. Il lavoro è stato fatto per ridurre questo problema, per esempio, questo documento (si farebbe hanno per l'attuazione del algo da soli). Forse questo tipo di rete sarebbe più affidabile in "ricordare" la memoria con precisione, pur essendo in grado di generalizzare i risultati (usando probabilità). Lo svantaggio è che sarà intensivo di memoria.

Tradizionale Feedforward, reti backpropogation (Percettroni) dovrebbe anche permettere di fare qualcosa di simile. Tuttavia si sta andando ad avere per essere attenti a creare nodi abbastanza nascosti per consentire alla rete di corretto richiamare tutti i valori immessi. In questo modo sarà ovviamente causa Overfitting, ma suona come non si vuole generalizzare i vostri dati di input, si desidera una migliore richiamo per i modelli.

Per risolvere il problema di imparare nuovi dati, ti basta per rendere la vostra rete in grado di apprendere nel corso del tempo, invece di imparare una volta. Dovrete ricerca di questo di più, ma ti consigliamo di utilizzare una sorta di algoritmo di apprendimento on-line.

In conclusione, non utilizzare le reti neurali, usare qualche altro tipo di algoritmo: p

Altri suggerimenti

Il Hopfield rete neurale è un modo semplice di attuazione memoria associativa. Per comodità, è anche supportato dal framework Encog.

Per non essere troppo non tecnico, ma sono abbastanza sicuro una serie di loop venuta fuori di un gruppo di cicli collegati potrebbe produrre memoria.

Ogni loop permetterebbe dati a cerchio, e ogni sotto ciclo in grado di identificare, recuperare o modificare la memoria.

Naturalmente, io non sono sicuro di come si dovrebbe invogliare la rete di incorporare quel disegno.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top