Pregunta

Me gustaría crear un sistema de aprendizaje automático basado en la web en línea, donde los usuarios pueden agregar continuamente muestras clasificadas y actualizar el modelo en línea. Me gustaría usar un perceptrón o un algoritmo similar de aprendizaje en línea.

Pero, los usuarios pueden cometer errores e insertar ejemplos irrelevantes. En ese caso, me gustaría tener la opción de eliminar un ejemplo específico, sin volver a capacitar el perceptrón en todo el conjunto de ejemplos (que pueden ser muy grandes).

es posible?

¿Fue útil?

Solución

Como entiendo el proceso, alterar un perceptrón sin volver a capacitar es imposible. Los ajustes de peso no solo son relativos a ese ejemplo específico, sino también en relación con los otros ejemplos de entrenamiento que han ido antes. Identificar la instancia clasificada incorrectamente y eliminarla del conjunto de pruebas antes de volver a capacitar el modelo parecería ser la forma más efectiva de corregir los pesos.

Creo que vale la pena señalar que en comparación con otros algoritmos de aprendizaje automático, Los perceptrones son relativamente resistentes al ruido y instancias clasificadas incorrectamente en el conjunto de entrenamiento. Si se encuentra con una gran cantidad de instancias mal clasificadas, parecería más prudente tener una mejor validación en el punto de ingerir los datos antes del entrenamiento que encontrar alguna forma de corregir instancias erróneas después de que el perceptrón haya sido entrenado. Si eso no es posible y puede identificar las instancias clasificadas incorrectamente como tales, entonces eliminarlas y volver a capacitar parecería la única forma de eliminar efectivamente el impacto de las instancias mal clasificadas.

Licenciado bajo: CC-BY-SA con atribución
No afiliado a cs.stackexchange
scroll top