Pourquoi la formation d'une machine Boltzmann restreinte correspond à une bonne reconstruction des données de formation?

datascience.stackexchange https://datascience.stackexchange.com/questions/20165

Question

De nombreux tutoriels suggèrent qu'après avoir formé un RBM, on peut avoir une bonne reconstruction des données de formation comme un autoencodeur.

Un exemple de tutoriel: https://deeplearning4j.org/restricedboltzmannmachine

Mais le processus de formation de RBM est essentiellement pour maximiser la probabilité des données de formation. Nous utilisons généralement une technique comme CD-K ou PCD, il semble donc que nous pouvons seulement dire qu'un RBM formé a une forte probabilité de générer des données qui ressemblent à des données de formation (chiffres si nous utilisons MNIST), mais ne correspond pas à la reconstruction. Ou ces deux choses sont-elles juste équivalentes d'une manière ou d'une autre?

Hinton a dit Que ce n'est pas une bonne idée d'utiliser l'erreur de reconstruction pour surveiller les progrès de la formation, c'est pourquoi j'ai cette question.

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top