Domanda

MiniBatch è una raccolta di esempi che vengono immessi nella rete, (esempio dopo esempio) e il retro-prop viene eseguito dopo ogni singolo esempio. Quindi prendiamo la media di questi gradienti e aggiorniamo i nostri pesi. Questo completa l'elaborazione di 1 minibatch.

Ho letto questi post

Domanda Parte A:

Come sarebbe un'entità minibatch per LSTM? Dì, voglio che riproduca Shakespeare, lettera per lettera (30 caratteri tra cui scegliere).

Lancio LSTM, lascia che preveda per 200 caratteri di una poesia, quindi eseguono la propagazione. (Quindi, il mio LSTM funziona con 200 timestep). Questo significa che il mio minibatch è costituito da 1 esempio di cui è 200?

Domanda Parte B:

Se volessi lanciare altri 63 minibatch in parallelo, sceglierei solo 63 poesie extra? (Modificare: La risposta originale non lo menziona esplicitamente, ma non alleniamo i minibatch in parallelo. Ci alleniamo su 1 minibatch, ma ci alleniamo esempi in parallelo)

Domanda Parte C:

Se volessi che ogni minibatch consistesse in 10 diversi esempi, quali sarebbero tali esempi e come sarebbero diversi da "quello che percepisco come un minibatch"?

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top