W i l l k o m m e n   b e i   [ www.mauspfeil.com ]
 
 



 

Wörterbuch der Bedeutung
<<Zurück
Bitte wählen Sie einen Buchstaben:
A, Ä | B | C | D | E | F | G | H | I | J | K | L | M | N | O, Ö | P | Q | R | S | T | U, Ü | V | W | X | Y | Z | 0-9

Suchen:

(Groß-/Kleinschreibung wird nicht unterschieden)

Google


F-Test

*** Shopping-Tipp: F-Test

Der F-Test ist ein Statistischer Test, mithilfe dessen mit einer gewissen Konfidenz entschieden werden kann, ob zwei Stichproben aus unterschiedlichen Grundgesamtheit Populationen sich hinsichtlich ihrer Varianz Statistische Signifikanz statistisch signifikant unterscheiden. Er dient damit unter anderem zur generellen Überprüfung von Unterschieden zwischen zwei statistischen Populationen. Der Test geht zurück auf einen der bekanntesten Mathematiker und Statistiker, Ronald Aylmer Fisher (1890-1962). Als Prüfwert des F-Tests wird der F-Wert berechnet, welcher unter der Nullhypothese einer F-Verteilung (s. auch Chi-Quadrat-Verteilung) mit n1 und n2 Freiheitsgraden gehorcht.

F-Test für zwei Stichproben
Beim F-Test zweier Stichproben lautet die Nullhypothese Null-Hypothese: H_0: {\sigma_1}^2 = {\sigma_2}^2 Formal berechnet sich der F-Wert der Stichprobe dann als der Quotient der geschätzten Varianzen der beiden Stichproben: F_{\mathrm{Stichprobe}} =\frac{\hat{\sigma_1}^2}{\hat{\sigma_2}^2} Wird die Untersuchung unter einer einseitigen Alternativhypothese betrachtet, schreibt man den größeren Varianzwert in den Zähler. Die Varianzen werden dabei jeweils durch die Varianzen der Messwerte der entsprechenden Stichprobe geschätzt. Der theoretische F-Wert kann nun unter Berücksichtigung der Freiheitsgrad Freiheitsgrade der Verteilung und einer angenommenen Irrtumswahrscheinlichkeit \alpha aus der F-Verteilung gewonnen werden. Dies geschieht am einfachsten unter Zuhilfenahme einer F-Wert-Tabelle. Ist F_{\mathrm{Stichprobe}} größer als der theoretische F-Wert für die Irrtumswahrscheinlichkeit \alpha, dann gilt mit der Wahrscheinlichkeit 1-\alpha: Die Varianz der einen Stichprobe unterscheidet sich von der Varianz der anderen Stichprobe signifikant. Wenn sich zwei Stichproben schon in ihren Varianzen unterscheiden, dann unterscheiden sie sich allgemein natürlich auch. ---- Beispiel: Ein Unternehmen will vor dem Kauf einer neuen Anwendung prüfen, welche von zwei konkurrierenden Anwendungen die bessere ist. Unter anderem wird die Zufriedenheit der Benutzer gemessen. Die Ergebnisse eines Zufriedenheitsfragebogens zeigen bei den 120 Benutzern der Anwendung A eine Varianz von 95. Die Werte der 100 Benutzer der Anwendung B haben eine Varianz von 80. Die Präferenz des Unternehmens geht eindeutig zur Anwendung A, aus diesem Grunde wird eine einseitige Überprüfung vorgeschlagen: F_{(n-1,m-1)}=F_{(119,99)}=\frac{{\sigma_A}^2}{{\sigma_B}^2}=\frac{95}{80}=1,188 Für diesen F-Wert liefert die F-Verteilung eine Irrtumswahrscheinlichkeit von 18,4%. Das heißt also: Mit der Wahrscheinlichkeit 81,6% unterscheiden sich die Varianzen der beiden Stichproben signifikant. In der Regel geht man aber von einer Irrtumswahrscheinlichkeit \alpha \le 0,05 aus. Wir können die Nullhypothese also nicht mit genügender Statistische_Signifikanz Sicherheit ablehnen, müssen also in Kauf nehmen, dass sich die Varianzen der beiden Stichproben nicht signifikant voneinander unterscheiden. ----

F-Test für mehrere Stichprobenvergleiche
Der Varianzanalyse einfaktoriellen Varianzanalyse liegt ebenfalls der F-Test zugrunde. Hier werden die Treatment- und Fehler-Varianzen einander gegenüber gestellt.

F-Test des Bestimmtheitsmaßes eines Regressionsansatzes
Hier wird getestet, ob das Bestimmtheitsmaß des Regressionsanalyse Regressionsansatzes Null ist. Wenn diese Hypothese abgelehnt wird, kann man vermuten, dass das gewählte Regressionsmodell einen Erklärungswert für den Regressand y besitzt. Beispielsweise wird getestet, ob mehrere Variablen zusammen einen signifikanten Einfluss auf den Regressanden haben. Es kann somit auch der Fall eintreten, dass der t-Test zu den üblichen Signifikanzniveaus keinen signifikanten Einfluss der einzelnen Regressoren festgestellt hat, der F-Test allerdings die Signifikanz des Gesamtmodells feststellt. Die Wahrscheinlichkeit, dass F-Test und t-Test unterschiedliche Ergebnisse liefern, steigt mit der Anzahl der Freiheitsgrade.

Einordnung
* F-Tests sind in der Regel Beispiele für Likelihood-Quotienten-Tests.

Literatur
*Bortz, J. (1977): Statistik für Sozialwissenschaftler, Springer: Berlin. *Sachs, L. (2003): Angewandte Statistik - Anwendung statistischer Methoden, Springer: Berlin Kategorie:Statistik en:F-test es:Test F ja:F検定 nl:F-toets su:Uji-F

*** Shopping-Tipp: F-Test




[Der Artikel zu F-Test stammt aus dem Nachschlagewerk Wikipedia, der freien Enzyklopädie. Dort findet sich neben einer Übersicht der Autoren die Möglichkeit, den Original-Text des Artikels F-Test zu editieren.
Die Texte von Wikipedia und dieser Seite stehen unter der GNU Free Documentation License.]

<<Zurück | Zur Startseite | Impressum | Zum Beginn dieser Seite