Domanda

Ho creato un modello per risolvere un problema di previsione delle serie temporali. Avevo una quantità limitata di serie temporali con cui potevo addestrare il modello, quindi ho deciso di aumentare i dati. La strategia di aumento dei dati che ho usato è piuttosto semplice ma ha dimostrato di aumentare l'accuratezza del mio modello.

Ho scritto il mio data_generator con cui uso per allenare il mio modello, usando la funzione Fit_Generator in Keras. Essenzialmente impiega l'intero set di dati di allenamento che ho, mescola tutte le serie temporali e il processo di aumento si svolge specificamente in ogni lotto. In ogni lotto che scelgo casualmente, per serie temporali nei punti batch, start e fin -end, in modo che ogni batch contenga fette di lunghezza variabili di ciascuna serie all'interno del lotto. Ciò crea ovviamente un flusso quasi infinito di dati, ma è del tutto dipendente dal numero di epoche per cui viene eseguito il modello poiché il set di dati non è aumentato in anticipo. Nessun rumore o nulla viene applicato al set di dati, l'aumento è puramente variando le lunghezze delle serie temporali e i punti di inizio e finale della serie.

Osservo che la mia perdita continua a diminuire nel tempo ho provato 100, 500, 1000, 5000 e 10.000 epoche. In generale, l'accuratezza delle previsioni del modello migliora ma ad un certo punto con rendimenti decrescenti. È difficile da dire quando sto ancora sintonizzando l'architettura del modello e iperparametri.

Una tale strategia di aumento influisce su come posso interpretare la perdita del modello? Poiché più a lungo alleno il modello per i dati più "nuovi" che vede invece di vedere costantemente gli stessi dati e la formazione su di esso.

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top