Frage

Ich möchte ein Online-webbasiertes maschinelles Lernsystem erstellen, in dem Benutzer kontinuierlich klassifizierte Beispiele hinzufügen und das Modell online aktualisieren lassen können. Ich möchte ein Wahrnehmung oder einen ähnlichen Online-Learning-Algorithmus verwenden.

Benutzer können jedoch Fehler machen und irrelevante Beispiele einfügen. In diesem Fall möchte ich die Möglichkeit haben, ein bestimmtes Beispiel zu löschen, ohne das Perzeptron an den gesamten Beispielen (die möglicherweise sehr groß sein können) erneut zu übertragen.

Ist das möglich?

War es hilfreich?

Lösung

Wie ich den Prozess verstehe, Es ist unmöglich, eine Wahrnehmung ohne Umschulung zu ändern. Die Gewichtsanpassungen beziehen sich nicht nur zu diesem spezifischen Beispiel, sondern auch zu den anderen Schulungsbeispielen, die zuvor gegangen sind. Die Identifizierung der falsch klassifizierten Instanz und das Entfernen des Testsatzes vor dem Zusammenbau des Modells scheint die effektivste Art der Korrektur der Gewichte zu sein.

Ich denke, es lohnt sich, darauf hinzuweisen, dass im Vergleich zu anderen Algorithmen für maschinelles Lernen, Wahrnehmung sind relativ gegen Rauschen und fälschlicherweise klassifizierte Instanzen im Trainingssatz. Wenn Sie auf eine große Anzahl falsch klassifizierter Fälle stoßen, scheint es vor dem Training eine bessere Validierung an dem Punkt zu haben, an dem Sie die Daten einnehmen, als nach dem Training der Wahrnehmung eine Möglichkeit zu finden, um falsch klassifizierte Fälle zu korrigieren. Wenn dies nicht möglich ist und Sie die fälschlicherweise klassifizierten Instanzen als solche identifizieren, scheint das Entfernen und die Umschulung der einzige Weg, um die Auswirkungen der falsch klassifizierten Instanzen effektiv zu beseitigen.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit cs.stackexchange
scroll top