Domanda

Leggendo Deep Learning con Python di François Chollet. Nella sezione 5.3.1, abbiamo istanziato una convnet pretrattata, VGG16, e vengono fornite due opzioni per procedere:

A) Eseguire la base convoluzionale sul set di dati, registrando il suo output su un array numpy su disco e quindi utilizzando questi dati come input per un classificatore autonomo e densamente collegato simile a quelli che hai visto nella parte 1 di questo libro. Questa soluzione è rapida ed economica da funzionare, perché richiede solo la base della base convoluzionale una volta per ogni immagine di input e la base convoluzionale è di gran lunga la parte più costosa della pipeline. Ma per lo stesso motivo, Questa tecnica non ti permetterà Per utilizzare l'aumento dei dati.

B) Estensione del modello che hai (conv_base) aggiungendo i livelli densi in cima e eseguendo tutto end -to end sui dati di input. Questo ti consentirà di utilizzare l'aumento dei dati, perché ogni immagine di input passa attraverso la base convoluzionale ogni volta che viene vista dal modello. Ma per lo stesso motivo, questa tecnica è molto più costosa della prima.

Perché non posso utilizzare l'aumento dei dati per generare più dati di formazione dai campioni di addestramento esistenti, quindi andare con l'opzione A? Sembra che io possa eseguire la base VGG16 sul mio set di dati aumentato e utilizzare l'uscita come input per un classificatore densamente collegato in modo autonomo.

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top