Question

J'ai créé un modèle pour résoudre un problème de prévision des séries chronologiques. J'ai eu une série de séries chronologiques limitées avec lesquelles je pouvais former le modèle, donc j'ai décidé d'augmenter les données. La stratégie d'augmentation des données que j'ai utilisée est assez basique, mais il a montré qu'il augmente la précision de mon modèle.

J'ai écrit mon propre Data_Generator avec lequel j'utilise pour former mon modèle, en utilisant la fonction fit_generator dans Keras. Essentiellement, il faut dans l'ensemble des données de formation que j'ai, mélange toutes les séries chronologiques et le processus d'augmentation se déroule spécifiquement dans chaque lot. Dans chaque lot, je choisis au hasard, par séries chronologiques dans le lot, le début et les points finaux, de sorte que chaque lot contient des tranches de longueur variables de chaque série dans le lot. Cela crée évidemment un flux de données presque sans fin, mais il dépend entièrement du nombre d'époches pour lesquelles le modèle est exécuté car l'ensemble de données n'est pas augmenté à l'avance. Aucun bruit ou quoi que ce soit n'est appliqué à l'ensemble de données, l'augmentation provient purement de la variation des longueurs de la série chronologique et des points de début et d'extrémité de la série.

J'observe que ma perte continue de diminuer au fil du temps, j'ai essayé 100, 500, 1000, 5000 et 10 000 époques. En général, la précision des prédictions du modèle s'améliore mais à un moment donné avec des rendements décroissants. Il est difficile de dire quand je suis toujours en train de régler l'architecture du modèle et les hyperparamètres.

Une telle stratégie d'augmentation affecte-t-elle la façon dont je peux interpréter la perte de modèle? À mesure que plus je forme le modèle pour les données plus "nouvelles" qu'elles voient au lieu de voir constamment les mêmes données et la même formation.

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top