Frage

Ich versuche, eine NN Lernenden auf dieselben Daten in zwei verschiedenen Programmen zu laufen. Obwohl alles (die Daten und Parameter) gleich sind und auch manuell I Einwaagen auf denselben Wert (0) gesetzt ist, führen I in verschiedenen Gewichten in 2-Programmen. Interessante Sache läuft jedes Programm hintereinander nicht unabhängig Ergebnisse nicht ändert. Was ich debuggen und Prüfung ist:

1) Eingangsdaten,

2) NN Parameter

3) Init. Gewichte

4) Klasse Etikett (Ausgangsknoten)

und diese sind alle gleich. Was muss ich überprüfen?

War es hilfreich?

Lösung

Ich denke, was passiert ist, ist, dass der NN-Trainingsalgorithmus ist randomicaly einige Samen Einrichten und aus diesem Grunde, Ihr Gewicht Matrix mit unterschiedlichen Werten in beiden Training enden.

Zweitens wird die daraus resultierende Einstufung in Ihrem neuronales Netz praktisch in beiden Programmen gleich sein, solange Sie den gleichen Trainingssatz verwendet hatten.

Andere Tipps

Als Antwort 1 sagte, es ist wahrscheinlich die Gewichte zu Zufallswerten initialisiert. In der Regel sollten Sie nicht NN Gewichte auf Null initialisiert werden, da das immer ein Sattelpunkt ist. Das bedeutet, dass ein typischer backpropagation Trainingsalgorithmus fehlschlagen.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top