Question

Lire Deep Learning with Python par François Chollet. Dans la section 5.3.1, nous avons instancié un convnet pré-entraîné, VGG16, et on nous a donné deux options pour procéder:

A) Exécuter la base de convolution sur votre ensemble de données, enregistrer sa sortie dans un tableau Numpy sur le disque, puis utiliser ces données comme entrée dans un classificateur autonome et densément connecté similaire à ceux que vous avez vus dans la partie 1 de ce livre. Cette solution est rapide et bon marché à fonctionner, car elle ne nécessite que l'exécution de la base de convolution une fois pour chaque image d'entrée, et la base convolutionnelle est de loin la partie la plus coûteuse du pipeline. Mais pour la même raison, Cette technique ne vous permettra pas Pour utiliser l'augmentation des données.

B) Extension du modèle que vous avez (conv_base) en ajoutant des couches denses sur le dessus et en exécutant le tout de bout en bout sur les données d'entrée. Cette vous permettra d'utiliser l'augmentation des données, parce que chaque image d'entrée passe par la base convolutionnelle à chaque fois qu'elle est vue par le modèle. Mais pour la même raison, cette technique est beaucoup plus chère que la première.

Pourquoi ne puis-je pas utiliser l'augmentation des données pour générer plus de données de formation à partir d'échantillons de formation existants, puis aller avec l'option A? On dirait que je peux exécuter la base VGG16 sur mon ensemble de données augmenté et utiliser la sortie comme entrée dans un classificateur autonome densément connecté.

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top