Domanda

Sto leggendo il libro di Mackay "Teoria dell'informazione, inferenza e algoritmi di apprendimento"E sono confuso da come introduce il problema di decodifica per i codici LDPC (pagina 557).

Dato un output del canale $ mathbf {r} $, desideriamo trovare la parola codifica $ mathbf {t} $ che la cui probabilità $ P ( mathbf {r} | mathbf {t}) $ è più grande.

Posso salire a bordo con quello, anche se sembra un po 'all'indietro $ mathbf {r} $ è il evidenza Abbiamo, quindi sarei più a mio agio se stessimo cercando di trovare $ mathbf {t} $ che massimizza $ P ( mathbf {t} | mathbf {r}) $, e di fatto, continua dicendo

Ci sono due approcci al problema di decodifica entrambi i quali portano al problema generico "scoperta $ mathbf {x} $ che massimizza $$ p^*( mathbf {x}) = p ( mathbf {x}) mathbb {1} [ mathbf {hx} = mathbf {z}] $$ $$

espone i due punti di vista nella pagina seguente, il primo mi confonde in particolare

Il punto di vista della decodifica della parola coda

Innanzitutto, notiamo la distribuzione precedente sulle parole in codice $$ p ( mathbf {t}) = mathbb {1} [ mathbf {ht} = mathbf {0}] $$...]. La distribuzione posteriore sulle parole in codice è data moltiplicando il precedente per probabilità [... $$ p ( mathbf {t} | mathbf {r}) propto p ( mathbf {t}) p ( mathbf {r} | mathbf {t}) $$ $$

Dal problema di decodifica generico che ha dato, sembra che stiamo effettivamente cercando di massimizzare $ P ( mathbf {x}) = p ( mathbf {t} | mathbf {r}) $, invece di $ P ( mathbf {r} | mathbf {t}) $.

È ovvio che i due massimi sono uguali e con lo stesso massimizzatore? Non è ovvio per me dal massimizzatore $ mathbf {t_0} $ che massimizza $ P ( mathbf {r} | mathbf {t}) $ potrebbe effettivamente minimizzare $ P ( mathbf {t}) $, quindi il massimizzatore di $ P ( mathbf {t}) p ( mathbf {r} | mathbf {t}) $ Potrebbe essere diverso! Lo capisco in questo caso $ P ( mathbf {t}) $ è uniforme, quindi questo non dovrebbe essere un problema, ma mi sembra strano che questo non sia semplicemente dichiarato e mi sento come se mi mancasse qualcosa.

Perché dovremmo iniziare con il problema di massimizzare $ P ( mathbf {r} | mathbf {t}) $ e non $ P ( mathbf {t} | mathbf {r}) $? Perché sembra passare dopo alcune frasi? Ho ragione nel pensare che l'algoritmo presentato effettivamente massimizza $ P ( mathbf {t} | mathbf {r}) $?

Grazie

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a cs.stackexchange
scroll top