Domanda

Vorrei costruire un sistema di apprendimento automatico web-based on-line, dove gli utenti possono aggiungere continuamente campioni classificati, e hanno aggiornato il modello on-line. Vorrei utilizzare un percettrone o di un simile algoritmo online-learning.

Ma, gli utenti possono fare errori e inserire esempi irrilevanti. In quel caso, mi piacerebbe avere la possibilità di cancellare un esempio specifico, senza ri-formazione del perceptron sull'intera serie di esempi (che può essere molto grande).

È possibile?

È stato utile?

Soluzione

quanto ho capito il processo , alterando un percettrone senza riqualificazione è impossibile. Le regolazioni di peso non sono relative solo a quello esempio specifico, ma anche rispetto agli altri esempi di formazione che ci hanno preceduto. Identificare l'istanza in modo non corretto classificate e rimuoverlo dal set di prova prima di riqualificazione del modello sembra essere il modo più efficace per correggere i pesi.

Credo che la pena sottolineare che in confronto ad altri algoritmi di apprendimento automatico, sono relativamente resistenti alle istanze del rumore e classificati in modo non corretto nel training set . Se stai incontrando un gran numero di casi erroneamente classificati, sembrerebbe più prudente avere una migliore convalida al punto che si ingeriscono i dati prima di formazione rispetto a trovare un qualche modo per correggere i casi erroneamente classificati dopo il perceptron è stato addestrato. Se questo non è possibile e si è in grado di identificare i casi erroneamente classificati come tali, quindi la loro rimozione e la riqualificazione sembrerebbe l'unico modo per rimuovere efficacemente l'impatto dei casi erroneamente classificati.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a cs.stackexchange
scroll top