Frage

Ich versuche, Demo des Bildunterschriftensystems aus zu implementieren Keras -Dokumentation. Aus der Dokumentation konnte ich das Trainingsteil verstehen.

max_caption_len = 16
vocab_size = 10000

# first, let's define an image model that
# will encode pictures into 128-dimensional vectors.
# it should be initialized with pre-trained weights.
image_model = VGG-16 CNN definition
image_model.load_weights('weight_file.h5')

# next, let's define a RNN model that encodes sequences of words
# into sequences of 128-dimensional word vectors.
language_model = Sequential()
language_model.add(Embedding(vocab_size, 256, input_length=max_caption_len))
language_model.add(GRU(output_dim=128, return_sequences=True))
language_model.add(TimeDistributedDense(128))

# let's repeat the image vector to turn it into a sequence.
image_model.add(RepeatVector(max_caption_len))

# the output of both models will be tensors of shape (samples, max_caption_len, 128).
# let's concatenate these 2 vector sequences.
model = Merge([image_model, language_model], mode='concat', concat_axis=-1)
# let's encode this vector sequence into a single vector
model.add(GRU(256, 256, return_sequences=False))
# which will be used to compute a probability
# distribution over what the next word in the caption should be!
model.add(Dense(vocab_size))
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy', optimizer='rmsprop')

model.fit([images, partial_captions], next_words, batch_size=16, nb_epoch=100)

Aber jetzt bin ich verwirrt, wie man eine Bildunterschrift für das Testbild generiert. Eingabe hier ist [Image, partial_caption] pair, jetzt für Testbild, wie Sie eine Teilbeschreibung eingeben?

War es hilfreich?

Lösung

Dieses Beispiel trainiert ein Bild und eine teilweise Bildunterschrift, um das nächste Wort in der Bildunterschrift vorherzusagen.

Input: [🐱, "<BEGIN> The cat sat on the"]
Output: "mat"

Beachten Sie, dass das Modell nicht die gesamte Ausgabe der Bildunterschrift nur das nächste Wort vorhersagt. Um eine neue Bildunterschrift zu konstruieren, müssten Sie für jedes Wort mehrmals vorhersagen.

Input: [🐱, "<BEGIN>"] # predict "The"
Input: [🐱, "<BEGIN> The"] # predict "cat"
Input: [🐱, "<BEGIN> The cat"] # predict "sat"
...

Um die gesamte Sequenz vorherzusagen, glaube ich, dass Sie verwenden müssen TimeDistributedDense Für die Ausgangsschicht.

Input: [🐱, "<BEGIN> The cat sat on the mat"]
Output: "The cat sat on the mat <END>"

Siehe dieses Problem: https://github.com/fchollet/keras/issues/1029

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit datascience.stackexchange
scroll top