Pregunta

Selección de modelos y conjuntos de trenes/validación/prueba - Universidad de Stanford | Coursera:

A 10:59~11:10

Una nota final: debo decir que en el aprendizaje automático de esta práctica hoy, allí no ser Muchas personas que harán eso temprano de la que hablé y dijeron eso, ya sabes ...

¿Es correcta mi comprensión? Porque los subtítulos en inglés en Coursera a veces no son correctos. Mientras yo Konw, aquí lo que significa el subtítulo chino es opuesto a lo que hace el inglés. Así que no estoy seguro de si Andrew Ng dijo "allí no ser"o" ahí son"

Gracias por tu lectura.


Me gustaría preguntar otro.

Diagnóstico de sesgo versus varianza - Universidad de Stanford | Coursera:

A 02:34~02:36, lo que dijo Andrew Ng no está bien, así como el subtítulo inglés.

Mi comprensión es lo siguiente

Si D es igual a 1, .... para ser un alto error de entrenamiento.

No es tan completo.

¿Alguien le gustaría identificar eso?

Gracias...

¿Fue útil?

Solución

No, en realidad dice lo contrario:

Una nota final: debo decir que en el aprendizaje automático de esta práctica hoy, allí son Muchas personas que harán eso temprano de la que hablé y dijeron eso, ya sabes ...

Luego dice (la "cosa temprana" de la que habló):

Seleccionar su modelo como conjunto de pruebas y luego usar el mismo conjunto de pruebas para informar el error ... Desafortunadamente, muchas personas lo hacen


En esta lección explica sobre la separación del conjunto de datos:

  1. conjunto de entrenamiento para entrenar el modelo;
  2. conjunto de validación cruzada para encontrar los parámetros correctos;
  3. equipo de prueba Para encontrar el error de generalización final (de la función con los mejores valores de parámetros encontrados durante el uso del conjunto de validación cruzada).

Entonces, Andrew Ng se queja de que muchas personas nos utilizan el mismo conjunto de datos para encontrar los parámetros correctos, y luego informan el error de ese conjunto de datos como final error de generalización.

Licenciado bajo: CC-BY-SA con atribución
scroll top