Domanda

Sono curioso di sapere come dovrebbero essere costruiti i dati di addestramento in modo da ridimensionare ad esempi che non fanno parte dei dati di addestramento. Ad esempio, il problema che sto affrontando in questo momento è nell'applicazione dell'identificazione o della distinzione della risposta in frequenza delle serie temporali generate da diverse distribuzioni. Quindi ho costruito $ p $ Numero di esempi ciascuno da gaussiano, uniforme, poisson e un rumore gentile o colorato dicono rosa. Gli esempi di rumore bianco (gaussiano, uniforme e poisson) sono etichettati come 1 e rumore colorato come 0. Usando la rete neurale La classificazione funziona bene. Ora volevo fare un'analisi di sensibilità verificando se la rete addestrata può classificare il rumore bianco da un'altra distribuzione e anche il rumore colorato, dice rosso. Entrambi i test sono falliti. NN non è riuscito a classificarli. Ma, non appena ho incluso il rosso e il nuovo tipo di rumore bianco nei dati di addestramento e testato su un percorso diverso (serie temporale), l'NN potrebbe classificarlo.

DOMANDA: Questo comportamento mi chiedo se l'algoritmo di apprendimento automatico sia incapace di distinguere esempi da sistemi diversi, ma gli esempi nei test hanno proprietà simili a quelle utilizzate nella formazione. In questo caso, eventualmente il rumore bianco appare simile ma poiché sono generati da diverse distribuzione o dicono che i dati di addestramento devono includere esempi di tutto il meccanismo o sistemi di generazione, altrimenti nel testare il modello ML non lo riconoscono. È questo il solito comportamento?

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top