Frage

Im Rahmen meiner Datenanalyse Workflow, mag ich für Ausreißer testen, und dann mit und ohne diesen Ausreißer meine weitere Berechnung zu tun.

Ich habe das Ausreißer-Paket gefunden, die verschiedenen Tests hat, aber ich bin nicht sicher, wie sie am besten für meinen Workflow zu verwenden.

War es hilfreich?

Lösung 2

Ich bin mit Dirk, es ist schwer. Ich würde empfehlen, zuerst bei der Suche, warum Sie Ausreißer haben könnten. Ein Ausreißer ist nur eine Zahl, dass jemand denkt, verdächtig ist, ist es nicht ein konkreter ‚schlechter‘ Wert, und wenn Sie einen Grund finden, können es ein Ausreißer zu sein, müssen Sie mit der Unsicherheit leben.

Eine Sache, die Sie nicht war nicht erwähnt, welche Art von Ausreißer bei der Sie suchen. Sind Ihre Daten um einen Mittelwert geclustert, haben sie eine bestimmte Verteilung oder gibt es eine Beziehung zwischen Ihren Daten.

Hier einige Beispiele

Zunächst werden wir einige Daten, erstellen und verdirbt es dann mit einem Ausreißer;

> testout<-data.frame(X1=rnorm(50,mean=50,sd=10),X2=rnorm(50,mean=5,sd=1.5),Y=rnorm(50,mean=200,sd=25))
> #Taint the Data
> testout$X1[10]<-5
> testout$X2[10]<-5
> testout$Y[10]<-530

> testout
         X1         X2        Y
1  44.20043  1.5259458 169.3296
2  40.46721  5.8437076 200.9038
3  48.20571  3.8243373 189.4652
4  60.09808  4.6609190 177.5159
5  50.23627  2.6193455 210.4360
6  43.50972  5.8212863 203.8361
7  44.95626  7.8368405 236.5821
8  66.14391  3.6828843 171.9624
9  45.53040  4.8311616 187.0553
10  5.00000  5.0000000 530.0000
11 64.71719  6.4007245 164.8052
12 54.43665  7.8695891 192.8824
13 45.78278  4.9921489 182.2957
14 49.59998  4.7716099 146.3090
<snip>
48 26.55487  5.8082497 189.7901
49 45.28317  5.0219647 208.1318
50 44.84145  3.6252663 251.5620

Es ist oft am nützlichsten, die Daten zu prüfen, grafisch (Du bist Gehirn ist viel besser als Ausreißer Mathematik Spek ist)

> #Use Boxplot to Review the Data
> boxplot(testout$X1, ylab="X1")
> boxplot(testout$X2, ylab="X2")
> boxplot(testout$Y, ylab="Y")

Dann können Sie einen Test verwenden. Wenn der Test einen Cut-off-Wert zurückgibt, oder den Wert, den ein Ausreißer sein könnte, können Sie ifelse es entfernen

> #Use Outlier test to remove individual values
> testout$newX1<-ifelse(testout$X1==outlier(testout$X1),NA,testout$X1)
> testout
         X1         X2        Y    newX1
1  44.20043  1.5259458 169.3296 44.20043
2  40.46721  5.8437076 200.9038 40.46721
3  48.20571  3.8243373 189.4652 48.20571
4  60.09808  4.6609190 177.5159 60.09808
5  50.23627  2.6193455 210.4360 50.23627
6  43.50972  5.8212863 203.8361 43.50972
7  44.95626  7.8368405 236.5821 44.95626 
8  66.14391  3.6828843 171.9624 66.14391 
9  45.53040  4.8311616 187.0553 45.53040
10  5.00000  5.0000000 530.0000       NA 
11 64.71719  6.4007245 164.8052 64.71719 
12 54.43665  7.8695891 192.8824 54.43665 
13 45.78278  4.9921489 182.2957 45.78278 
14 49.59998  4.7716099 146.3090 49.59998 
15 45.07720  4.2355525 192.9041 45.07720 
16 62.27717  7.1518606 186.6482 62.27717 
17 48.50446  3.0712422 228.3253 48.50446 
18 65.49983  5.4609713 184.8983 65.49983 
19 44.38387  4.9305222 213.9378 44.38387 
20 43.52883  8.3777627 203.5657 43.52883 
<snip>
49 45.28317  5.0219647 208.1318 45.28317 
50 44.84145  3.6252663 251.5620 44.84145

oder für kompliziertere Beispiele können Sie Statistiken verwenden kritische cut off-Werte zu berechnen, hier der Lund-Test (siehe Lund, RD 1975, „Tables für ein ungefähres-Test für Ausreißer in Linear Models“, Techno, Bd. 17 , Nr. 4, pp. 473-476. und Prescott, P. 1975 "eine ungefähre Test auf Ausreißer in Linear Models", Techno, vol. 17, no. 1, pp. 129-132.)

> #Alternative approach using Lund Test
> lundcrit<-function(a, n, q) {
+ # Calculates a Critical value for Outlier Test according to Lund
+ # See Lund, R. E. 1975, "Tables for An Approximate Test for Outliers in Linear Models", Technometrics, vol. 17, no. 4, pp. 473-476.
+ # and Prescott, P. 1975, "An Approximate Test for Outliers in Linear Models", Technometrics, vol. 17, no. 1, pp. 129-132.
+ # a = alpha
+ # n = Number of data elements
+ # q = Number of independent Variables (including intercept)
+ F<-qf(c(1-(a/n)),df1=1,df2=n-q-1,lower.tail=TRUE)
+ crit<-((n-q)*F/(n-q-1+F))^0.5
+ crit
+ }

> testoutlm<-lm(Y~X1+X2,data=testout)

> testout$fitted<-fitted(testoutlm)

> testout$residual<-residuals(testoutlm)

> testout$standardresid<-rstandard(testoutlm)

> n<-nrow(testout)

> q<-length(testoutlm$coefficients)

> crit<-lundcrit(0.1,n,q)

> testout$Ynew<-ifelse(abs(testout$standardresid)>crit,NA,testout$Y)

> testout
         X1         X2        Y    newX1   fitted    residual standardresid
1  44.20043  1.5259458 169.3296 44.20043 209.8467 -40.5171222  -1.009507695
2  40.46721  5.8437076 200.9038 40.46721 231.9221 -31.0183107  -0.747624895
3  48.20571  3.8243373 189.4652 48.20571 203.4786 -14.0134646  -0.335955648
4  60.09808  4.6609190 177.5159 60.09808 169.6108   7.9050960   0.190908291
5  50.23627  2.6193455 210.4360 50.23627 194.3285  16.1075799   0.391537883
6  43.50972  5.8212863 203.8361 43.50972 222.6667 -18.8306252  -0.452070155
7  44.95626  7.8368405 236.5821 44.95626 223.3287  13.2534226   0.326339981
8  66.14391  3.6828843 171.9624 66.14391 148.8870  23.0754677   0.568829360
9  45.53040  4.8311616 187.0553 45.53040 214.0832 -27.0279262  -0.646090667
10  5.00000  5.0000000 530.0000       NA 337.0535 192.9465135   5.714275585
11 64.71719  6.4007245 164.8052 64.71719 159.9911   4.8141018   0.118618011
12 54.43665  7.8695891 192.8824 54.43665 194.7454  -1.8630426  -0.046004311
13 45.78278  4.9921489 182.2957 45.78278 213.7223 -31.4266180  -0.751115595
14 49.59998  4.7716099 146.3090 49.59998 201.6296 -55.3205552  -1.321042392
15 45.07720  4.2355525 192.9041 45.07720 213.9655 -21.0613819  -0.504406009
16 62.27717  7.1518606 186.6482 62.27717 169.2455  17.4027250   0.430262983
17 48.50446  3.0712422 228.3253 48.50446 200.6938  27.6314695   0.667366651
18 65.49983  5.4609713 184.8983 65.49983 155.2768  29.6214506   0.726319931
19 44.38387  4.9305222 213.9378 44.38387 217.7981  -3.8603382  -0.092354925
20 43.52883  8.3777627 203.5657 43.52883 228.9961 -25.4303732  -0.634725264
<snip>
49 45.28317  5.0219647 208.1318 45.28317 215.3075  -7.1756966  -0.171560291
50 44.84145  3.6252663 251.5620 44.84145 213.1535  38.4084869   0.923804784
       Ynew
1  169.3296
2  200.9038
3  189.4652
4  177.5159
5  210.4360
6  203.8361
7  236.5821
8  171.9624
9  187.0553
10       NA
11 164.8052
12 192.8824
13 182.2957
14 146.3090
15 192.9041
16 186.6482
17 228.3253
18 184.8983
19 213.9378
20 203.5657
<snip>
49 208.1318
50 251.5620

Edit: Ich habe gerade ein Problem in meinem Code bemerkt. Der Lund Test erzeugt einen kritischen Wert, der auf den absoluten Wert des studantized Rest (das heißt ohne Vorzeichen) verglichen werden sollte

Andere Tipps

Wenn Sie Ausreißer Sorgen machen, anstatt sich auf Haufen zu werfen, eine robuste Methode verwenden. Zum Beispiel, statt lm, verwenden RLM.

"Es ist schwer". Vieles davon ist kontextabhängig und Sie können diese in Ihre Anwendung einbetten haben:

  • Ist das Daten Drift, im Trend oder Zyklus?
  • Ist die Variabilität fest oder ist es selbst variabel?
  • Gibt es andere Serie, die Sie für 'Benchmarking' verwenden kann?

Anders als die Ausreißer-Pakete gibt es auch die qcc Paket wie die Qualitätskontrolle Literatur diesen Bereich abdeckt.

Es gibt viele andere Bereiche, die Sie auf, wie zum Beispiel aussehen könnte die robuste Statistik Aufgabenansicht .

Versuchen Sie, die outliers::score Funktion. Ich rate nicht auf die so genannten Ausreißer der Entfernung, aber Ihre extremen Beobachtungen zu wissen, ist gut.

library(outliers)
set.seed(1234)
x = rnorm(10)
[1] -1.2070657  0.2774292  1.0844412 -2.3456977  0.4291247  0.5060559 -0.5747400 -0.5466319
[9] -0.5644520 -0.8900378
outs <- scores(x, type="chisq", prob=0.9)  # beyond 90th %ile based on chi-sq
#> [1] FALSE FALSE FALSE  TRUE FALSE FALSE FALSE FALSE FALSE FALSE
x[outs]  # most extreme
#> [1] -2.345698

Sie finden weitere Hilfe finden mit Ausreißererkennung hier

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top