Domanda

Quando si applica la regressione logistica, si sta essenzialmente applicando la seguente funzione $ 1/(1 + e^{ beta x}) $ per fornire un limite di decisione, dove $ beta $ sono un insieme di parametri appresi dall'algoritmo e $ x $ è un vettore di funzionalità di input. Questo sembra essere il framework generale fornito da pacchetti ampiamente disponibili come Sklearn di Python.

Questa è una domanda molto semplice e può essere implementata manualmente mediante normalizzazione delle caratteristiche, ma non dovrebbe essere dato un confine di decisione più accurato da: $ 1/(1 + e^{ beta (x - alpha)}) $, dove $ alpha $ è un offset? Naturalmente un individuo può sottrarre manualmente un pre-specificato $ alpha $ Dalle caratteristiche in anticipo e ottengono lo stesso risultato, ma non sarebbe meglio che l'algoritmo di regressione logistica lasciasse semplicemente $ alpha $ essere un parametro gratuito addestrato, come $ beta $? C'è un motivo per cui questo non è abitualmente fatto?

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top