Question

Lorsque vous appliquez une régression logistique, on applique essentiellement la fonction suivante $ 1 / (1 + e ^ { beta x}) $ pour fournir une frontière de décision, où $ bêta $ sont un ensemble de paramètres qui sont appris par l'algorithme, et $ x $ est un vecteur de fonctionnalité d'entrée. Il semble que ce soit le cadre général fourni par des packages largement disponibles tels que Sklearn de Python.

Il s'agit d'une question très fondamentale et peut être mise en œuvre manuellement par la normalisation des fonctionnalités, mais une limite de décision plus précise ne devrait pas être donnée par: $ 1 / (1 + e ^ { bêta (x - alpha)}) $, où $ alpha $ est un décalage? Bien sûr, un individu peut soustraire manuellement un $ alpha $ des fonctionnalités à l'avance et obtenez le même résultat, mais ne serait-il pas préférable que l'algorithme de régression logistique laisse simplement $ alpha $ être un paramètre gratuit formé, comme $ bêta $? Y a-t-il une raison pour laquelle cela ne se fait pas régulièrement?

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top