Альтернативы на алгоритм наивных байесов
-
12-12-2019 - |
Вопрос
Мы пытаемся реализовать семантический алгоритм поиска, чтобы дать предложенные категории, основанные на условиях поиска пользователя.
На данный момент мы реализовали Naive Bayes вероятностный алгоритм, чтобы вернуть вероятности каждой категории в наши данные, а затем вернуть самый высокий.
Однако из-за его наивности его иногда получают результаты неправильно.
Не входя в нейронные сети и другие смехотворенно сложные вещи, есть еще одна альтернатива, которую мы можем заглянуть?
Решение
Naive Bayes (NB) не сильно отличается от логистической регрессии.От опыта, логистическая регрессия превосходит NB с точки зрения прогнозируемой производительности большую часть времени.
Кроме того, если у вас есть достаточно данных и не имеют недостающих данных, то, скорее всего, вы обнаружите, что прогнозные характеристики НБ в значительной степени так же, как и более сложные методологии, такие как байесские сети (BNS), которыене имеют «наивных» предположений независимости между ковариатами.
Если вы хотите расслабиться до предположения независимости, не погружение в полной мере погружение в царстве BNS, вы можете попробовать Дерево дополненное наивным байсом алгоритмом первым.
Другие советы
Если вы не учитываете линейный SVM, чтобы быть смехотвочно сложными вещами , вы можете попробовать это.Известно, что очень хорошо выполняет для таких задач.