Frage

Ich habe 2 Spalten und mehrere Zeilen von Daten in Excel. Jede Spalte steht für einen Algorithmus, und die Werte in den Zeilen sind die Ergebnisse dieser Algorithmen mit unterschiedlichen Parametern. Ich mag statistischen Signifikanz Test dieser beiden Algorithmen mit Excel machen. Kann mir jemand eine Funktion vorschlagen?

Als Ergebnis wird es schön, etwas zu erklären, wie „Algorithmus A führt 8% besser als Algorithmus B mit 0,9 Wahrscheinlichkeit (oder 95% Konfidenzintervall)“

Wikipedia-Artikel erklärt genau, was ich brauche: http://en.wikipedia.org/wiki/Statistical_significance

Es scheint wie eine sehr einfache Aufgabe, aber ich konnte keine wissenschaftliche Messfunktion finden.

Jede Beratung über eine integrierte Funktion von Excel oder Funktion Schnipsel werden geschätzt.

Danke ..

Edit:

Nach tharkun Kommentare, erkannte ich, ich ein paar Punkte klären sollte: Die Ergebnisse sind lediglich reelle Zahlen zwischen 1-100 (sie sind Prozentwerte). Da jede Zeile einen anderen Parameter darstellt, Werte in einer Zeile stellt für diesen Parameter ein Ergebnis des Algorithmus. Die Ergebnisse hängen nicht voneinander ab. Wenn ich nehme Durchschnitt aller Werte für Algorithmus A und B-Algorithmus, sehe ich, dass der Mittelwert aller Ergebnisse, die produziert Algorithmus A 10% höher sind als Algorithmus B. Aber ich weiß nicht, ob dies statistisch signifikant ist oder nicht. Mit anderen Worten, vielleicht für einen Parameter hatte Algorithmus A 100 Prozent höher als Algorithmus B und für den Rest hat Algorithmus B höhere Werte, sondern nur, weil dieser eine Folge der Unterschied im Durchschnitt 10%. Und ich will diese Berechnung tun mit nur treffen.

War es hilfreich?

Lösung

Danke für die Aufklärung. In diesem Fall sollten Sie eine unabhängige Probe T-Test tun. Das heißt, Sie die Hilfe von zwei unabhängigen Datensätzen vergleichen möchten.

Excel eine Funktion TTEST hat, das ist, was Sie brauchen.

Für Ihr Beispiel sollten Sie wahrscheinlich zwei Schwänze verwenden und 2 geben.

Die Formel ausgeben wird ein Wahrscheinlichkeitswert als Wahrscheinlichkeit alpha Fehler bekannt. Dies ist der Fehler, die Sie machen, wenn Sie die beiden Datensätze angenommen sind verschieden, aber sie sind es nicht. Je niedriger der Alpha Fehlerwahrscheinlichkeit desto höher ist die Chance, Ihre Sätze sind unterschiedlich.

Sie sollten nur die Differenz der beiden Datensätze übernehmen, wenn der Wert niedriger als 0,01 (1%) oder für kritische Ergebnisse sogar 0,001 oder niedriger. Sie sollen auch wissen, dass in dem t-Test mindestens etwa 30 Werte pro Datenmenge ausreichend zuverlässig sein muss und dass der Typ-2-Test übernimmt gleiche Varianzen der beiden Datensätze. Wenn gleiche Varianzen nicht gegeben sind, sollten Sie den Typ-3-Test verwenden.

http://depts.alverno.edu/nsmt/stats.htm

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top