我想使用Jeff Heaton的Encog神经网络库模仿计算机内存。我只是不知道使用哪种方法。

我的要求是,有一个内存位置和值的字节集合。

location [0000]:byte-data[0101010]
location [0001]:byte-data[0101010]

这些是我传递给神经网络系统的值。

我试图避免每次内存数据变化时都会重新训练神经网络。但这也许就是我需要做的。

您将使用哪些神经网络技术来完成我要做的事情?

有帮助吗?

解决方案

您想做的不是神经网络的问题真的很棒,因为它们擅长概括模式而不是学习它们。但是,您也许可以通过概率神经网络或常规感知来实现这一目标。您对自己的问题有些模糊,所以我必须对我的答案感到模糊。我将假设您的意思是您传递内存数据,然后将其“分类”到一个内存地址。这样,当您使用监督培训方法训练网络时,您将能够传递与现有项目相似或相同的内存数据,并且网络将为您提供地址。我想您也可以做同样的事情。

如果您使用概率神经网络,则本质上将学习您传递给网络的每种模式。当然,每当您要存储一个新的内存地址时,您都会向网络添加一个新节点,这使情况有些低效。已经完成了减少这个问题的工作, 例如,本文 (您必须自己实施算法)。也许这种类型的网络在准确地“记住”内存时最可靠,同时仍然能够概括结果(使用概率)。不利的一面是,它将是记忆密集型的。

传统的前馈,反向普遍网络(perceptrons)也应该让您做类似的事情。但是,您必须小心地创建足够的隐藏节点,以使网络正确回忆您的所有输入值。当然,这样做会导致拟合,但听起来您不想概括输入数据,您希望更好地回忆模式。

为了解决学习新数据的问题,您只需要使网络能够随着时间的推移而不是学习一次。您必须进行更多的研究,但是您需要使用某种在线学习算法。

总之,不要使用神经网络,使用其他类型的算法:P

其他提示

Hopfield神经网络 是实现关联内存的简单方法。方便地,它甚至由Encog框架支持。

不要太无技术,但是我很确定一系列连接的循环会产生记忆。

每个循环将允许数据圆圈,并且下面的每个循环都可以识别,检索或修改内存。

当然,我不确定您如何吸引网络合并该设计。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top