Verschiedene Ergebnisse beim Berechnen linearer Regressionen mit Scipy.stats und Statsmodels
-
20-12-2019 - |
Frage
Ich bekomme unterschiedliche Werte von R ^ 2 (Bestimmungskoeffizient), wenn ich OLS versuche, mit diesen beiden Bibliotheken zu passt, und ich kann nicht ganz herausfinden, warum.(Einiger Abstand für Ihre Bequemlichkeit entfernt)
generasacodicetagpre.was ist hier los?Ich kann es nicht herausfinden!Gibt es irgendwo einen Fehler?
Lösung
Der 0,2205 stammt von einem Modell, das auch einen Abfangbegriff aufweist - der Wert von 0,5328 ist das Ergebnis, wenn Sie den Abfang entfernen.
Grundsätzlich ist ein Paket modelliert
check out diesen Beitrag für eine längere Diskussion.
Andere Tipps
Dies ist keine Antwort auf die ursprüngliche Frage, die beantwortet wurde.
etwa r-quadriert in einer Regression ohne konstant.
Ein Problem ist, dass eine Regression ohne Zwischenkommnis nicht die Standarddefinition von R ^ 2 hat.
Im Wesentlichen ist R-quadratisch als Güte der Passform in einem Modell mit einem Intercept vergleicht das vollständige Modell mit dem Modell, das nur ein Abfangen hat. Wenn das vollständige Modell keinen Zwischenfangen hat, kann die Standarddefinition von R ^ 2 seltsame Ergebnisse wie negativ r ^ 2 herstellen.
Die herkömmliche Definition in der Regression ohne konstante Teilung durch die Gesamtsumme der Quadrate der abhängigen Variablen anstelle der erniedrigten. Die R ^ 2 zwischen einer Regression mit konstanter und ohne ohne aussagekräftiger Weise kann nicht wirklich verglichen werden.
Siehe zum Beispiel das Problem, das die Änderung in Statsmodels ausgelöst hat, um R ^ 2 "ordnungsgemäß" in der nicht ständigen Regression zu verarbeiten: https://github.com/statsmodels/statsmodels/issues/785