Pergunta

Eu estou tentando executar um aprendiz NN on mesmos dados em 2 programas diferentes. Apesar de tudo (os dados e parâmetros) são os mesmos e também que configurar manualmente pesos iniciais é o mesmo valor (0), que resultam em diferentes pesos em 2 programas. coisa interessante está sendo executado cada programa consecutivamente não muda resultados independentes. O que eu depurar e verificação é:

1) Os dados de entrada,

2) NN Parâmetros

3) Init. pesos

4) etiquetas de classe (nós de saída)

e estes são todos iguais. O que mais devo verificar?

Foi útil?

Solução

Eu acho que o que está acontecendo é que o algoritmo de treinamento NN é a criação de algumas sementes randomicamente e, por isso, a sua matriz de pesos vai acabar com valores diferentes em ambos os seus treinamentos.

Em segundo lugar, a classificação resultante na sua rede neural será praticamente o mesmo em ambos os programas, desde que você tinha usado o mesmo conjunto de treinamento.

Outras dicas

Como resposta 1 disse, é provavelmente inicializar os pesos para valores aleatórios. Em geral, você não deve inicializar pesos NN a zero, porque isso é sempre um ponto de sela. Isso significa que um algoritmo de treinamento backpropagation típico irá falhar.

Licenciado em: CC-BY-SA com atribuição
Não afiliado a StackOverflow
scroll top