Les modèles gaussiennes Mélange EM algorithme utilisent log-vraisemblance moyenne à la convergence de test

datascience.stackexchange https://datascience.stackexchange.com/questions/12549

Question

J'enquêtait sur scikit-learn de mise en oeuvre de l'algorithme EM pour le montage modèles de mélange gaussien et je me demandais comment ils ont venir avec l'aide de la log-vraisemblance moyenne au lieu de la somme des vraisemblances log à la convergence de test.

Je vois qu'il devrait faire l'algorithme de converger plus rapidement (compte tenu de leurs paramètres par défaut), mais d'où vient cette idée?

Est-ce que quelqu'un sait s'ils ont fondé cette partie de la mise en œuvre sur un papier spécifique ou si elles ne sont venus avec elle et l'a utilisé?

Dans la plupart des explications de l'algorithme EM Je suis venu à travers, ils auraient utilisé log_likelihoods.sum () au lieu de log_likelihoods.mean ().

Était-ce utile?

La solution

Il fait des tests unitaires plus facile; invariant à la taille de l'échantillon.

Référence:. la discussion github qui a conduit à la modification

Licencié sous: CC-BY-SA avec attribution
scroll top