我们试图实现语义搜索算法,以基于用户的搜索条件提供建议的类别。

目前我们已经实施了天真贝贝斯概率算法,以返回我们数据中每个类别的概率,然后返回最高的概率。

但是,由于它的天真,有时会产生错误的结果。

没有进入神经网络和其他可笑的复杂的东西是我们可以调查的另一个替代方案?

有帮助吗?

解决方案

幼稚贝叶斯(NB)与Logistic回归不大。从经验中,在大多数情况下,Logistic回归在预测性能方面优于NB。

此外,如果您有足够的数据并且没有任何缺失数据,那么您很可能会发现Nb的预测性能与贝叶斯网络(BNS)等更复杂的方法相同,那么在协变者之间没有“天真”的独立假设。

如果您想放松独立假设,而无需完全潜入BNS的领域,您可以尝试树增强天真贝叶斯算法首先。

其他提示

如果您不考虑线性SVM才能嘲笑复杂的东西,您可以尝试。它已知对这种任务表现得非常好。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top