Pourquoi la formation d'une machine Boltzmann restreinte correspond à une bonne reconstruction des données de formation?
-
30-10-2019 - |
Question
De nombreux tutoriels suggèrent qu'après avoir formé un RBM, on peut avoir une bonne reconstruction des données de formation comme un autoencodeur.
Un exemple de tutoriel: https://deeplearning4j.org/restricedboltzmannmachine
Mais le processus de formation de RBM est essentiellement pour maximiser la probabilité des données de formation. Nous utilisons généralement une technique comme CD-K ou PCD, il semble donc que nous pouvons seulement dire qu'un RBM formé a une forte probabilité de générer des données qui ressemblent à des données de formation (chiffres si nous utilisons MNIST), mais ne correspond pas à la reconstruction. Ou ces deux choses sont-elles juste équivalentes d'une manière ou d'une autre?
Hinton a dit Que ce n'est pas une bonne idée d'utiliser l'erreur de reconstruction pour surveiller les progrès de la formation, c'est pourquoi j'ai cette question.
Pas de solution correcte