Question

Je veux mimétique mémoire de l'ordinateur avec la bibliothèque de réseau de neurones de encog de jeff Heaton. Je ne sais pas ce que l'approche à utiliser.

Mon exigence est de, un emplacement de mémoire et une collection d'octets pour les valeurs.

location [0000]:byte-data[0101010]
location [0001]:byte-data[0101010]

Ce sont les valeurs I passe dans le système de réseau de neurones.

Je tentais d'éviter le recyclage du réseau de neurones à chaque fois que les données de la mémoire change. Mais peut-être est ce que je dois faire.

Quelles sont les techniques de réseaux de neurones utiliseriez-vous pour accomplir ce que je suis en train de faire?

Était-ce utile?

La solution

Qu'est-ce que vous essayez de faire est pas un problème des réseaux de neurones sont vraiment grands à mieux, car ils sont à des modèles généralisent, et non leur apprentissage. Cependant, vous pourriez être en mesure d'y arriver soit avec les réseaux de neurones probabilistes ou une perception régulière. Tu étais un peu vague au sujet de votre problème, donc je vais devoir être vague au sujet de ma réponse. Je vais supposer que vous voulez dire que vous passez dans les données de la mémoire, puis « classez » à une adresse mémoire. De cette façon, lorsque vous vous entraînez le réseau en utilisant une méthode de formation supervisée, vous serez en mesure de transmettre des données de mémoire qui est similaire ou identique à un élément existant et le réseau vous donnera l'adresse. Vous pouvez également faire la même chose en sens inverse, je suppose.

Si vous utilisez un réseau de neurones probabiliste vous apprendrez essentiellement chaque modèle que vous passez au réseau. Bien sûr, alors chaque fois que vous souhaitez enregistrer une nouvelle adresse de mémoire, vous ajoutez un nouveau nœud au réseau, ce qui rend les choses un peu inefficace. Le travail a été fait pour réduire ce problème, par exemple, cet article (vous le feriez doivent mettre en œuvre l'algo-vous). Peut-être que ce type de réseau serait plus fiable « remémoration » la mémoire précise, tout en étant capable de généraliser les résultats (en utilisant des probabilités). L'inconvénient est que ce sera de mémoire.

traditionnelle anticipatrice, réseaux backpropogation (de Perceptrons) devrait également vous permettre de faire quelque chose comme ça. Cependant, vous allez devoir faire attention à créer suffisamment de noeuds cachés pour permettre au réseau de rappeler correctement toutes vos valeurs d'entrée. Faire cela la cause du cours sur le raccord, mais il semble que vous ne voulez pas généraliser vos données d'entrée, vous voulez un meilleur rappel des modèles.

Pour résoudre le problème de l'apprentissage de nouvelles données, vous aurez juste besoin de rendre votre réseau capable d'apprendre au fil du temps, au lieu d'apprendre une fois. Vous aurez à la recherche de ce plus, mais vous aurez envie d'utiliser une sorte d'algorithme d'apprentissage en ligne.

En conclusion, ne pas utiliser les réseaux de neurones, utilisez un autre type d'algorithme: p

Autres conseils

Le Hopfield réseau de neurones est un moyen simple de mettre en œuvre la mémoire associative. Idéalement, il est même soutenu par le cadre Encog.

Pour ne pas trop non technique, mais je suis assez sûr une série de boucles se détacher d'un tas de boucles connectées pourrait produire la mémoire.

Chaque boucle permettrait données au cercle, et chaque sous la boucle pourrait identifier, d'extraire ou de modifier la mémoire.

Bien sûr, je ne sais pas comment vous inciter le réseau à intégrer cette conception.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top