我喜欢当批处理SOM变为会聚到停止执行。 我可以使用哪些误差函数来确定收敛?

有帮助吗?

解决方案

在谈到收敛的SOM,对于给定的地图大小为(N×M),你想知道的算法足够迭代是否已经运行,以确保地图是“稳定”。这意味着,严格意义上做新的投入(意见),以地图的放入同一神经元/码本矢量如果地图是重新训练多少次?(忽略的事实问题,地图的布置可以切换左右时,每个时间,这是细只要簇仍然布置以稳定的方式)被训练。

要帮助回答的足够的迭代是否已经运行的问题,请参见下面列出的学术论文。这两篇论文也触及了什么地图大小合适的问题(什么n×m的值有助于确保SOM的收敛?)。

指已流行于论文在这里给出了传统方法的:

统计工具来评估自组织映射的可靠性(Bodt,科特雷尔,Verleysen)

最近,该方法具有大约来,这看起来相当有希望的:

甲收敛准则自组织映射 ,硕士论文,本杰明小时。 OTT(罗德岛大学)

这个论断,在我看来,真的写得很好,读来引人入胜。什么也好看的是,这项研究已被写入了作为一个(而未知)封装在R A SOM收敛测试,称为popsom。检查出来:

popsom

其他提示

我敢肯定你的意思是成本函数,而不是错误的功能。

SOM不需要的误差函数(也没有一个成本函数)。

目前的机器学习分类的顶层,SOM是一个的无监督学习技术 - 无目标矢量,因此没有“目标矢量”减“value_at_the_current_iteration”最小化

想起来的另一种方法:代价函数的作用是尽量减少一些成本;在ML,它的模型计算并提供数据之间的增量。在SOM,没有数据被提供给算法用于此目的。

(我知道这有点令人迷惑,因为从该网络所产生的输入数据通常被称为“训练数据” - 或许这是输入数据的监督ML技术,这些都远远超过普通的作用。无监督的人它可能也令人困惑,因为特沃·科霍嫩,用“发明了” SOM,原指他们作为一类神经网络的记的人 - 当然NN是有监督的技术,它依赖于成本函数(通常梯度下降。))

最后,只是为了确保,我通过Marsland“:一个算法的角度看学习机”检查了我自己的SOM代码和代码从ML教科书。在这两个我的代码和他,唯一停止准则对当他打电话的主要功能通过“最大迭代”用户任意值。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top