Bildunterschrift in Keras
-
16-10-2019 - |
Frage
Ich versuche, Demo des Bildunterschriftensystems aus zu implementieren Keras -Dokumentation. Aus der Dokumentation konnte ich das Trainingsteil verstehen.
max_caption_len = 16
vocab_size = 10000
# first, let's define an image model that
# will encode pictures into 128-dimensional vectors.
# it should be initialized with pre-trained weights.
image_model = VGG-16 CNN definition
image_model.load_weights('weight_file.h5')
# next, let's define a RNN model that encodes sequences of words
# into sequences of 128-dimensional word vectors.
language_model = Sequential()
language_model.add(Embedding(vocab_size, 256, input_length=max_caption_len))
language_model.add(GRU(output_dim=128, return_sequences=True))
language_model.add(TimeDistributedDense(128))
# let's repeat the image vector to turn it into a sequence.
image_model.add(RepeatVector(max_caption_len))
# the output of both models will be tensors of shape (samples, max_caption_len, 128).
# let's concatenate these 2 vector sequences.
model = Merge([image_model, language_model], mode='concat', concat_axis=-1)
# let's encode this vector sequence into a single vector
model.add(GRU(256, 256, return_sequences=False))
# which will be used to compute a probability
# distribution over what the next word in the caption should be!
model.add(Dense(vocab_size))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='rmsprop')
model.fit([images, partial_captions], next_words, batch_size=16, nb_epoch=100)
Aber jetzt bin ich verwirrt, wie man eine Bildunterschrift für das Testbild generiert. Eingabe hier ist [Image, partial_caption] pair, jetzt für Testbild, wie Sie eine Teilbeschreibung eingeben?
Lösung
Dieses Beispiel trainiert ein Bild und eine teilweise Bildunterschrift, um das nächste Wort in der Bildunterschrift vorherzusagen.
Input: [🐱, "<BEGIN> The cat sat on the"]
Output: "mat"
Beachten Sie, dass das Modell nicht die gesamte Ausgabe der Bildunterschrift nur das nächste Wort vorhersagt. Um eine neue Bildunterschrift zu konstruieren, müssten Sie für jedes Wort mehrmals vorhersagen.
Input: [🐱, "<BEGIN>"] # predict "The"
Input: [🐱, "<BEGIN> The"] # predict "cat"
Input: [🐱, "<BEGIN> The cat"] # predict "sat"
...
Um die gesamte Sequenz vorherzusagen, glaube ich, dass Sie verwenden müssen TimeDistributedDense
Für die Ausgangsschicht.
Input: [🐱, "<BEGIN> The cat sat on the mat"]
Output: "The cat sat on the mat <END>"
Siehe dieses Problem: https://github.com/fchollet/keras/issues/1029