Question

Je suis curieux de savoir comment les données de formation doivent être construites afin qu'elles évoluent vers des exemples qui ne font pas partie des données de formation. Par exemple, le problème auquel je suis confronté en ce moment est l'application de l'identification ou de la distinction de la réponse en fréquence des séries chronologiques générées à partir de différentes distributions. Alors j'ai construit $ p $ Nombre d'exemples chacun de la gaussienne, de l'uniforme, de Poisson et un bruit aimable ou coloré disent le rose. Les exemples de bruit blanc (gaussien, uniforme et Poisson) sont étiquetés comme 1 et le bruit coloré comme 0. En utilisant le réseau neuronal, la classification fonctionne bien. Maintenant, je voulais effectuer une analyse de sensibilité en vérifiant si le réseau formé peut classer le bruit blanc d'une autre distribution et également un bruit coloré. Les deux tests ont échoué. Nn n'a pas réussi à les classer. Mais, dès que j'ai inclus le rouge et le nouveau type de bruit blanc dans les données d'entraînement et testé sur un autre sentier (séries chronologiques), le NN pourrait le classer.

QUESTION: Ce comportement me fait me demander si l'algorithme d'apprentissage automatique Sare incapable de distinguer des exemples de différents systèmes, bien que les exemples de tests aient des propriétés similaires à celles utilisées dans la formation. Dans ce cas, bien que le bruit blanc semble similaire, mais comme ils sont générés à partir de différentes distributions ou disent des systèmes, les données de formation doivent inclure des exemples de tous les mécanismes ou systèmes de génération, sinon en testant le modèle ML ne le reconnaît pas. Est-ce le comportement habituel?

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top