Question

Je lis le livre de Mackay "Algorithmes de théorie de l'information, d'inférence et d'apprentissage"Et je suis confus par la façon dont il introduit le problème de décodage des codes LDPC (page 557).

Étant donné une sortie de canal $ mathbf {r} $, nous souhaitons trouver le mot de code $ mathbf {t} $ que dont la probabilité $ P ( mathbf {r} | mathbf {t}) $ est le plus grand.

Je peux monter à bord avec ça, même si cela semble un peu en arrière depuis $ mathbf {r} $ est le preuve Nous avons, donc je serais plus à l'aise si nous essayions de trouver $ mathbf {t} $ qui maximise $ P ( mathbf {t} | mathbf {r}) $, et en fait, il continue en disant

Il y a deux approches du problème de décodage qui conduisent tous les deux au problème générique «trouver $ mathbf {x} $ qui maximise $$ p ^ * ( mathbf {x}) = p ( mathbf {x}) mathbb {1} [ mathbf {hx} = mathbf {z}] $$

Il expose les deux points de vue dans la page suivante, le premier me confond particulièrement

le point de vue de décodage de mots de code

Tout d'abord, nous notons la distribution antérieure sur les mots de code $$ p ( mathbf {t}) = mathbb {1} [ mathbf {ht} = mathbf {0}] $$...]. La distribution postérieure sur les mots de code est donnée en multipliant le précédent par la probabilité [... $$ p ( mathbf {t} | mathbf {r}) propo p ( mathbf {t}) p ( mathbf {r} | mathbf {t}) $$

D'après le problème de décodage générique qu'il a donné, il semble que nous essayons réellement de maximiser $ P ( mathbf {x}) = p ( mathbf {t} | mathbf {r}) $, à la place de $ P ( mathbf {r} | mathbf {t}) $.

Est-il évident que les deux maxima sont les mêmes et avec le même maximiseur? Ce n'est pas évident pour moi depuis le maximiseur $ mathbf {t_0} $ qui maximise $ P ( mathbf {r} | mathbf {t}) $ pourrait réellement minimiser $ P ( mathbf {t}) $, donc le maximiseur de $ P ( mathbf {t}) p ( mathbf {r} | mathbf {t}) $ pourrait être différent! Je comprends que dans ce cas $ P ( mathbf {t}) $ est uniforme, donc cela ne devrait pas être un problème, mais il me semble bizarre que ce ne soit tout simplement pas indiqué et j'ai l'impression de manquer quelque chose.

Pourquoi devrions-nous commencer par le problème de la maximisation $ P ( mathbf {r} | mathbf {t}) $ et pas $ P ( mathbf {t} | mathbf {r}) $? Pourquoi semble-t-il changer après quelques phrases? Ai-je raison de penser que l'algorithme présenté maximise en fait $ P ( mathbf {t} | mathbf {r}) $?

Merci

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
Non affilié à cs.stackexchange
scroll top