这是一篇论文,它是关于估计包含文本和一些噪声或非文本对象的二值图像的视角。

PDF文档

该算法使用隐马尔可夫模型:实际上两个条件t -text b -backgrouond(即噪音)

算法本身很难理解。问题是我已经阅读了有关隐藏的马尔可夫模型的信息,我知道它使用了必须知道的概率。但在这个算法中我无法理解,如果他们使用 HMM,他们如何获得这些概率(将状态从 S1 更改为另一个状态(例如 S2)的概率)?

我在那篇论文中也没有找到任何有关培训的内容。所以,如果有人理解的话,请告诉我。在不知道状态变化概率的情况下是否可以使用 HMM?

编辑:可能他们正在使用一些估计,而不知道 HMM 参数(概率)

有帮助吗?

解决方案

也许这有点太学术化了,更多地与应用数学相关而不是与编程相关?

反正:HMM 传统上是 训练有素的 (IE。通过使用已经存在的一些数据库来了解模型参数的值(在本例中为概率) 分类 数据。请参阅 鲍姆韦尔奇算法. 。本次分两个阶段:首先学习(或训练)(使用分类标记数据),然后分类(或实际工作)(使用未分类数据)是许多算法的典型特征,这被称为 监督分类.

另一方面,有时我们没有“已知”(机密)数据,因此我们必须求助于 无监督分类, ,其中我们尝试同时学习模型和分类。这是更加有限的,并且通常意味着对模型进行许多简化和参数减少(这样我们就没有那么多东西要学习)。乍一看,这似乎是那篇​​文章中采取的路径:他们不考虑完全通用的 HMM,而是考虑非常有限的 HMM,并尝试找到适合该模型的模型。但是,我又没有认真读过它。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top