Come appare il minibatch per LSTM?
-
31-10-2019 - |
Domanda
MiniBatch è una raccolta di esempi che vengono immessi nella rete, (esempio dopo esempio) e il retro-prop viene eseguito dopo ogni singolo esempio. Quindi prendiamo la media di questi gradienti e aggiorniamo i nostri pesi. Questo completa l'elaborazione di 1 minibatch.
Ho letto questi post
- [1]
- [2],
- Informazioni sulle voci di imbottitura in un minibatch in modo che abbiano la stessa lunghezza
- e sulla conservazione dello stato cellulare Ma quanto segue non è ancora chiaro per me:
Domanda Parte A:
Come sarebbe un'entità minibatch per LSTM? Dì, voglio che riproduca Shakespeare, lettera per lettera (30 caratteri tra cui scegliere).
Lancio LSTM, lascia che preveda per 200 caratteri di una poesia, quindi eseguono la propagazione. (Quindi, il mio LSTM funziona con 200 timestep). Questo significa che il mio minibatch è costituito da 1 esempio di cui è 200?
Domanda Parte B:
Se volessi lanciare altri 63 minibatch in parallelo, sceglierei solo 63 poesie extra? (Modificare: La risposta originale non lo menziona esplicitamente, ma non alleniamo i minibatch in parallelo. Ci alleniamo su 1 minibatch, ma ci alleniamo esempi in parallelo)
Domanda Parte C:
Se volessi che ogni minibatch consistesse in 10 diversi esempi, quali sarebbero tali esempi e come sarebbero diversi da "quello che percepisco come un minibatch"?
Nessuna soluzione corretta