Pergunta
Eu estou tentando executar um aprendiz NN on mesmos dados em 2 programas diferentes. Apesar de tudo (os dados e parâmetros) são os mesmos e também que configurar manualmente pesos iniciais é o mesmo valor (0), que resultam em diferentes pesos em 2 programas. coisa interessante está sendo executado cada programa consecutivamente não muda resultados independentes. O que eu depurar e verificação é:
1) Os dados de entrada,
2) NN Parâmetros
3) Init. pesos
4) etiquetas de classe (nós de saída)
e estes são todos iguais. O que mais devo verificar?
Solução
Eu acho que o que está acontecendo é que o algoritmo de treinamento NN é a criação de algumas sementes randomicamente e, por isso, a sua matriz de pesos vai acabar com valores diferentes em ambos os seus treinamentos.
Em segundo lugar, a classificação resultante na sua rede neural será praticamente o mesmo em ambos os programas, desde que você tinha usado o mesmo conjunto de treinamento.
Outras dicas
Como resposta 1 disse, é provavelmente inicializar os pesos para valores aleatórios. Em geral, você não deve inicializar pesos NN a zero, porque isso é sempre um ponto de sela. Isso significa que um algoritmo de treinamento backpropagation típico irá falhar.