Нейронная сеть (с ангагом Джеффа Хитона), чтобы имитировать память компьютера

StackOverflow https://stackoverflow.com/questions/4575617

Вопрос

Я хочу имитировать память компьютера с библиотекой нейронной сети Джеффа Хитона. Я просто не знаю, какой подход использовать.

Мое требование - иметь местоположение памяти и набор байтов для значений.

location [0000]:byte-data[0101010]
location [0001]:byte-data[0101010]

Это значения, которые я передаю в систему нейронной сети.

Я пытался избежать переподготовки нейронной сети каждый раз, когда данные памяти меняются. Но, может быть, это то, что мне нужно сделать.

Какие методы нейронной сети вы бы использовали, чтобы выполнить то, что я пытаюсь сделать?

Это было полезно?

Решение

То, что вы пытаетесь сделать, не является проблемой нейронных сетей на самом деле так здорово, так как они лучше обобщают закономерности, а не изучают их. Однако вы можете достичь этого либо с вероятностными нейронными сетями, либо с регулярным восприятием. Вы были немного расплывчаты в своей проблеме, поэтому я должен быть расплывчатым в отношении моего ответа. Я собираюсь предположить, что вы имеете в виду, что вы передаете данные памяти, а затем «классифицируйте их» по адресу памяти. Таким образом, когда вы тренируете сеть, используя контролируемый метод обучения, вы сможете передавать данные памяти, которые похожи или так же, как и существующий элемент, и сеть даст вам адрес. Полагаю, вы также можете сделать то же самое наоборот.

Если вы используете вероятностную нейронную сеть, вы по существу изучаете каждый шаблон, который вы передаете в сеть. Конечно, тогда каждый раз, когда вы хотите сохранить новый адрес памяти, вы добавляете в сеть новый узел, что делает вещи немного неэффективными. Работа была выполнена, чтобы уменьшить эту проблему, Например, эта статья (Вы должны были бы реализовать Algo самостоятельно). Возможно, этот тип сети будет наиболее надежным в «запоминании» памяти точно, в то же время имея возможность обобщать результаты (используя вероятности). Недостатком является то, что это будет интенсивная память.

Традиционные сети обратной связи (персептроны) также должны позволить вам сделать что -то подобное. Однако вам придется быть осторожным, чтобы создать достаточно скрытых узлов, чтобы сеть правильно отозвала все ваши входные значения. Это, конечно, вызовет примерку, но, похоже, вы не хотите обобщать свои входные данные, вы хотите лучше вспомнить для шаблонов.

Чтобы решить проблему изучения новых данных, вам просто нужно сделать вашу сеть способной учиться с течением времени, а не учиться один раз. Вам придется исследовать это больше, но вы захотите использовать какой -то алгоритм онлайн -обучения.

В заключение, не используйте нейронные сети, используйте какой -нибудь другой вид алгоритма: P

Другие советы

А Нейронная сеть Хопфилда это простой способ реализации ассоциативной памяти. Удобно, что это даже поддерживается фреймворком Encog.

Чтобы не быть слишком некничным, но я почти уверен, что серия петли, исходящих от кучи подключенных петлей, может создать память.

Каждый цикл позволил бы данным кружить, и каждый цикл внизу может идентифицировать, извлекать или изменять память.

Конечно, я не уверен, как бы вы побудили сеть включить этот дизайн.

Лицензировано под: CC-BY-SA с атрибуция
Не связан с StackOverflow
scroll top