Mit lateinischen Buchstaben beschreibt man Parameter der Grundgesamtheit.
Wahr. In der Statistik werden oft lateinische Buchstaben verwendet, um Parameter der Grundgesamtheit zu beschreiben, z.B. µ (Mittelwert), σ (Standardabweichung).
Ziel der Inferenzstatistik ist ein Rückschluss von der Stichprobe auf die Grundgesamtheit.
Wahr. Das Hauptziel der Inferenzstatistik ist es, auf Basis einer Stichprobe Schlüsse auf die unbekannte Grundgesamtheit zu ziehen.
Ziel der Inferenzstatistik ist ein Rückschluss von der Grundgesamtheit auf die Stichprobe.
Falsch. Das Ziel ist genau umgekehrt: von der Stichprobe auf die Grundgesamtheit zu schließen, nicht umgekehrt.
Mit griechischen Buchstaben beschreibt man Parameter der Grundgesamtheit.
Wahr. Griechische Buchstaben wie µ, σ, θ werden häufig verwendet, um Parameter der Grundgesamtheit zu repräsentieren.
Mit griechischen Buchstaben beschreibt man Parameter der Stichprobe im Rahmen der deskriptiven Statistik.
Falsch. In der deskriptiven Statistik werden meist lateinische Buchstaben für die Beschreibung der Stichpen erster genutzt.
Mit griechischen Buchstaben mit einem Dach werden Parameter beschrieben, die aus einer Stichprobe für die Grundgesamtheit geschätzt wurden.
Wahr. Griechische Buchstaben mit einem Dach (z.B. θ^) werden häufig verwendet, um geschätzte Parameter der Grundgesamtheit auf Basis einer Stichprobe darzustellen.
θ^\hat{\theta}
Parameterschätzung und Hypothesentesten sind zwei Problemkreise der Inferenzstatistik.
Wahr. Parameterschätzung und Hypothesentests sind zentrale Themenbereiche der Inferenzstatistik, wobei erstere sich mit der Schätzung von Parametern und letztere mit der Überprüfung von Hypothesen über diese Parameter beschäftigt.
Parametrische Signifikanzprüfungsverfahren setzen die Normalverteilung voraus.
Wahr: Parametrische Tests wie der t-Test setzen eine Normalverteilung der Daten voraus.
Je kleiner/höher das Signifikanzniveau, umso kleiner wird die Teststärke.
Wahr: Je kleiner das Signifikanzniveau (also je strenger der Test), umso kleiner ist die Teststärke, da es schwieriger wird, ein signifikantes Ergebnis zu erzielen.
Die Annahme der Alternativhypothese, obwohl in der Population in Wahrheit die Nullhypothese gilt, nennt man Beta-Fehler.
Falsch: Dies nennt man einen Alpha-Fehler (Fehler 1. Art). Ein Beta-Fehler (Fehler 2. Art) tritt auf, wenn die Nullhypothese beibehalten wird, obwohl die Alternativhypothese wahr ist.
Die Wahrscheinlichkeit p einer Prüfgröße unter der Annahme, dass in der Population die Nullhypothese gilt, nennt man auch Irrtumswahrscheinlichkeit.
Wahr: Die Wahrscheinlichkeit, unter der Annahme, dass die Nullhypothese gilt, ein bestimmtes Stichprobenergebnis zu erhalten, ist die Irrtumswahrscheinlichkeit (p-Wert).
Non-parametrische Signifikanzprüfungsverfahren setzen die Normalverteilung voraus.
Falsch: Non-parametrische Tests setzen keine Normalverteilung voraus und sind deshalb nützlich für Daten, die nicht normalverteilt sind.
Je größer der Stichprobenumfang, umso größer ist der Beta-Fehler.
Falsch: Je größer der Stichprobenumfang, umso kleiner ist der Beta-Fehler, da größere Stichproben eine bessere Schätzung der Population ermöglichen und somit die Teststärke erhöhen.
Bei einem signifikanten Ergebnis ist die Irrtumswahrscheinlichkeit klein bzw. höchstens so groß wie die maximal zulässige Irrtumswahrscheinlichkeit.
Wahr: Bei einem signifikanten Ergebnis liegt der p-Wert unter dem festgelegten Signifikanzniveau, also ist die Irrtumswahrscheinlichkeit klein bzw. höchstens so groß wie das Signifikanzniveau.
Je größer die Effektgröße, umso kleiner ist der Beta-Fehler.
Wahr: Eine größere Effektgröße führt zu einer höheren Teststärke, was die Wahrscheinlichkeit eines Beta-Fehlers (Fehler 2. Art) verringert.
Je größer die Varianz, die in die Formel eingeht, desto kleiner der Betrag des empirischen t-Wertes.
Falsch. Ein größerer Varianzanteil (im Nenner des t-Tests) führt zu einem kleineren Nenner und somit zu einem größeren empirischen t-Wert.
Je größer die Stichprobe, desto kleiner der Betrag des kritischen t-Wertes.
Falsch. Die Größe der Stichprobe beeinflusst nicht den Betrag des kritischen t-Wertes. Dieser hängt von den Freiheitsgraden und dem Signifikanzniveau ab.
Je größer die Differenz der zu vergleichenden Mittelwerte, desto größer der Betrag des empirischen t-Wertes.
Richtig. Eine größere Mittelwertdifferenz führt zu einem größeren t-Wert, wenn alle anderen Faktoren konstant gehalten werden.
Je kleiner die Freiheitsgrade, desto kleiner der Betrag des kritischen t-Wertes.
Falsch. Niedrigere Freiheitsgrade führen zu einem höheren kritischen t-Wert, nicht zu einem kleineren.
Je höher das angenommene Signifikanzniveau (z.B. 1% statt 5%), desto größer der Betrag des kritischen t-Wertes.
Falsch. Ein höheres Signifikanzniveau führt zu einem kleineren kritischen t-Wert, da die kritische Grenze weiter entfernt ist.
Je größer die Differenz der zu vergleichenden Mittelwerte, desto größer der Betrag der Effektgröße d.
Richtig. Eine größere Mittelwertdifferenz führt zu einer größeren Effektgröße d.
Je größer der Standardfehler, desto größer der Betrag des empirischen t-Wertes.
Falsch. Ein größerer Standardfehler führt zu einem kleineren t-Wert, da die Schätzung weniger präzise ist.
Je größer die Stichprobe, desto kleiner der Betrag des empirischen t-Wertes.
Falsch. Eine größere Stichprobe kann zu einem größeren t-Wert führen, wenn die Stichprobengröße den Standardfehler reduziert.
Je größer der Betrag des empirischen t-Wertes, umso größer die Irrtumswahrscheinlichkeit p.
Falsch. Ein größerer empirischer t-Wert zeigt eher an, dass die Nullhypothese abgelehnt werden kann (geringere Irrtumswahrscheinlichkeit), wenn die t-Verteilung und Signifikanzniveau berücksichtigt werden.
Ein negativer F-Wert spricht für die Nullhypothese.
Falsch. Ein negativer F-Wert deutet nicht auf die Nullhypothese hin, sondern zeigt lediglich an, dass die erklärte Varianz nicht signifikant größer ist als die nicht erklärte Varianz.
Je größer die nicht erklärte Varianz, umso größer der empirische F-Wert.
Richtig. Ein größerer F-Wert deutet auf eine größere Differenz zwischen den Gruppen hin, die durch die nicht erklärte Varianz verursacht wird.
Je kleiner die erklärte Varianz, umso kleiner der empirische F-Wert.
Falsch. Ein kleinerer F-Wert deutet auf weniger Variation zwischen den Gruppen hin, unabhängig von der erklärten oder nicht erklärten Varianz.
Die Gesamtvarianz lässt sich in erklärte und nicht erklärte Varianz aufteilen.
Richtig. Die Gesamtvarianz wird durch die erklärte und nicht erklärte Varianzkomponente beschrieben.
Zur Berechnung der Quadratsummen (QS) muss man die Mittelwerte zuerst quadrieren.
Richtig. Die Quadratsummen werden aus den quadrierten Abweichungen der Datenpunkte vom Mittelwert berechnet.
In den empirischen F-Wert gehen die erklärte und die nicht erklärte Varianzschätzung ein.
Richtig. Der F-Wert basiert auf dem Verhältnis der erklärten zur nicht erklärten Varianz.
In die Berechnung der erklärten Varianz gehen die quadrierten Differenzen der Bedingungs- bzw. Gruppenmittelwerte vom Gesamtmittelwert ein.
Richtig. Die erklärte Varianz beruht auf den quadrierten Differenzen der Gruppenmittelwerte vom Gesamtmittelwert.
Die uVs werden auch Faktoren genannt.
Richtig. Unabhängige Variablen (uVs) werden in der ANOVA auch als Faktoren bezeichnet.
Die uV muss mindestens 3 Stufen haben.
Falsch. Eine unabhängige Variable (uV) kann auch weniger als 3 Stufen haben, abhängig vom Design der Studie.
Zur Berechnung der mittleren Quadratsummen (MQS) werden die Freiheitsgrade durch die QS geteilt.
Richtig. Die mittleren Quadratsummen werden durch die Freiheitsgrade der jeweiligen Quadratsummen geteilt.
Die Form der F-Verteilung ist durch die Zähler- und die Nenner-Freiheitsgrade bestimmt.
Richtig. Die Freiheitsgrade bestimmen die Form der F-Verteilung, die verwendet wird, um die Signifikanz des F-Werts zu bestimmen.
Bei der Varianzanalyse wird die Variation der Bedingungsmittelwerte vom Gesamtmittelwert betrachtet.
Richtig. Die Varianzanalyse analysiert, wie sich die Mittelwerte der Gruppen oder Bedingungen von dem Gesamtmittelwert unterscheiden.
Je größer ein empirischer F-Wert, umso unwahrscheinlicher ist dieser unter der Bedingung, dass die H0 wahr ist.
Richtig. Ein großer F-Wert deutet darauf hin, dass die Wahrscheinlichkeit gering ist, dass die Nullhypothese (H0) wahr ist.
Die F-Verteilung hat einen Wertebereich zwischen minus bis plus unendlich.
Falsch. Die F-Verteilung ist auf Werte größer oder gleich 0 beschränkt.
Mit der Varianzanalyse können gerichtete Alternativhypothesen getestet werden.
Falsch. Die Varianzanalyse testet nur nicht-gerichtete Alternativhypothesen (z.B. ob es einen Unterschied zwischen Gruppen gibt, ohne eine spezifische Richtung anzugeben).
In der mehrfaktoriellen ANOVA kann der F-Wert auch negative Werte annehmen.
Falsch: Der F-Wert in der ANOVA ist immer positiv, da er das Verhältnis der erklärten zur nicht erklärten Varianz misst.
Bei der mehrfaktoriellen ANOVA erfolgt eine Aufteilung der Gesamtvarianz in erklärte Varianz der einzelnen Faktoren + erklärte Varianz der Interaktionen der Faktoren + nicht erklärte Varianz.
Wahr: Das ist korrekt. Die Gesamtvarianz wird in die genannten Bestandteile aufgeteilt.
Für die Berechnung der Fehlervarianz (auch Residualvarianz oder Varianz innerhalb der Gruppen) wird zunächst von jedem Messwert der jeweilige Zellenmittelwert abgezogen.
Wahr
Zur Berechnung der empirischen F-Werte wird die jeweilige mittlere QS des Effektes durch die mittlere QS der nicht erklärten Varianz geteilt.
Wahr: Dies ist korrekt. Der F-Wert wird durch das Verhältnis der erklärten zur nicht erklärten Varianz berechnet.
Die Voraussetzung der Varianzhomogenität fällt bei der mehrfaktoriellen ANOVA weg.
Falsch: Varianzhomogenität ist auch bei mehrfaktoriellen ANOVAs eine wichtige Annahme.
Der empirische F-Wert wird umso größer, je weniger die einzelnen Werte in den Zellen von ihrem jeweiligen Zellenmittelwert abweichen.
Eine Interaktion kann auch signifikant sein, wenn die entsprechenden Linien in einem Interaktionsdiagramm perfekt parallel sind.
Falsch: Signifikante Interaktionen zeigen an, dass sich die Effekte der unabhängigen Variablen in Kombination nicht einfach addieren.
Die Gesamtvarianz wird umso größer, je näher die einzelnen Messwerte am Gesamtmittelwert liegen.
Falsch: Die Gesamtvarianz wird nicht durch die Nähe der Einzelwerte zum Gesamtmittelwert beeinflusst.
Unabhängig von der Anzahl der Faktoren (bzw. uVs) ergibt sich bei der mehrfaktoriellen ANOVA immer nur ein Interaktionseffekt.
Falsch: Es können mehrere Interaktionseffekte bei mehrfaktoriellen ANOVAs auftreten, abhängig von der Anzahl und Art der unabhängigen Variablen.
Für die Betrachtung der Haupteffekte werden die Mittelwerte innerhalb der Stufen der jeweiligen uV betrachtet.
Wahr: Das ist korrekt. Haupteffekte werden durch Vergleich der Mittelwerte über alle anderen Variablenstufen berechnet.
Bei einer drei-faktoriellen ANOVA lassen sich sieben empirische F-Werte berechnen.
Die Rest- bzw. nicht erklärte Varianz wird umso kleiner, je weniger die einzelnen Werte in den Zellen von dem dazugehörigen Zellenmittelwert abweichen.
Wahr: Dies ist korrekt. Eine geringere Restvarianz bedeutet, dass die Einzelwerte enger um ihre jeweiligen Gruppenmittel gruppiert sind.
Mit der univariaten mehrfaktoriellen Varianzanalyse kann man die Haupt- und Interaktionseffekte von mehreren uVs hinsichtlich mehrerer aVs untersuchen.
Falsch
Sphärizität ist gegeben, wenn die Varianzen der Differenzen der Messwerte zwischen je zwei Bedingungen des drei- oder mehrstufigen Messwiederholungsfaktors vergleichbar sind.
Wahr (Das ist korrekt. Sphärizität bedeutet, dass die Varianzen der Differenzen zwischen den Bedingungen gleich sind.)
Bei der ANOVA mit Messwiederholungen wird der Faktor Person stets auf Signifikanz geprüft.
Falsch (Der Faktor Person wird nicht auf Signifikanz geprüft, da es kein interessierender Effekt ist. Es wird davon ausgegangen, dass die Versuchspersonen zufällig ausgewählt sind und die Unterschiede zwischen den Personen in die Residualvarianz eingehen.)
Bei einer mehr-faktoriellen ANOVA mit Messwiederholungen haben alle Effekte (Haupteffekte und Interaktionen) eine unterschiedliche Residualvarianz, die in die Berechnung der empirischen F-Werte eingeht.
Die generellen Unterschiede der Personen bei einer gemischten ANOVA können auch bei der Signifikanzprüfung der Zwischensubjektfaktoren berücksichtigt werden.
Durch die Möglichkeit der Berechnung der Varianz, die auf generelle Personenunterschiede zurückgeht, reduziert sich bei der ANOVA mit Messwiederholungen die zu berücksichtigende Residualvarianz.
Wahr (Da individuelle Unterschiede zwischen den Personen als separate Varianzkomponente betrachtet werden, reduziert sich die Residualvarianz und erhöht die Teststärke.)
Generell werden bei Messwiederholungsdesigns die gleichen Versuchspersonen unter allen Stufen des/der Messwiederholungs-Faktors/Faktoren (auch Innersubjekt-Fakt. genannt) gemessen.
Wahr (Das ist korrekt. In Messwiederholungsdesigns werden die gleichen Personen unter allen Stufen des Messwiederholungsfaktors getestet.)
Faktoren mit und Faktoren ohne Messwiederholungen können im Rahmen einer ANOVA nicht kombiniert werden.
Falsch (In einer gemischten ANOVA können sowohl Messwiederholungsfaktoren als auch zwischen den Versuchspersonen variierende Faktoren kombiniert werden.)
Eine ANOVA mit Messwiederholungen hat durch die geringere Versuchspersonenanzahl eine höhere Teststärke.
Bei einer ein-faktoriellen ANOVA mit Messwiederholungen stellt die Interaktion zwischen den Personen x dem experimentellen Faktor die Residualvarianz dar.
Wahr (Das ist korrekt. Bei einer einfaktoriellen ANOVA mit Messwiederholungen ist die Interaktion zwischen den Personen und dem experimentellen Faktor die Residualvarianz.)
Unabhängig von der Anzahl der Stufen eines Messwiederholungsfaktors muss die Sphärizität überprüft werden.
Ausreißer im Datensatz führen in jedem Fall zu einer Erhöhung des Betrages des Korrelationskoeffizienten.
Korrelationskoeffizienten die vom Betrag < 1 sind, stellen probabilistische Zusammenhänge dar.
Der absolute Betrag des Korrelationskoeffizienten drückt die Enge des Zusammenhangs aus.
Die Korrelation setzt lineare Zusammenhänge voraus.
Korrelation ist eine allgemeine Bezeichnung zur Beschreibung von Zusammenhängen zwischen Variablen.
Zur Berechnung der Korrelation müssen intervallskalierte Variablen vorliegen.
Variablen die miteinander korrelieren, stehen in einer Ursache-Wirkungs-Beziehung.
Je höher der Zusammenhang eines Items mit einem Faktor, umso höher ist die Faktorladung.
Der Eigenwert ist der Anteil der Gesamtvarianz aller Variablen, der durch einen Faktor aufgeklärt wird.
Nach dem Kaiser-Guttman-Kriterium sollten Faktoren mit Eigenwerten über 1 extrahiert werden.
Je mehr Variablen im Datensatz, desto geringer ist die Kommunalität.
Falsch (Die Kommunalität ist unabhängig von der Anzahl der Variablen und gibt an, wie viel Varianz eine Variable durch alle Faktoren erklärt wird)
Die Kommunalität ist der Anteil der Varianz aller Variablen, der durch einen Faktor aufgeklärt wird.
Falsch (Die Kommunalität ist der Anteil der Varianz einer einzelnen Variable, der durch alle Faktoren erklärt wird)
Bei orthogonalen Rotationen werden Korrelationen zwischen den Faktoren ausgeschlossen.
Zur Interpretation des Ergebnisses einer Hauptkomponentenanalyse Faktorenanalyse sollte man die nicht rotierte Komponentenmatrix verwenden.
Der Levene-Test ist ein non-parametrisches Testverfahren.
Falsch (Der Levene-Test ist ein parametrisches Testverfahren zur Prüfung der Homogenität der Varianzen.)
Der Median ist ein geeigneter Schätzer der zentralen Tendenz für ordinalskalierte Daten.
In sog. Kreuztabellen werden die Häufigkeiten innerhalb der Stufenkombinationen zweier nominalskalierter Variablen sowie die Randsummen angegeben.
Die Wahl des passenden non-parametrischen Verfahrens ist abhängig von der Abhängigkeit der Stichprobe und dem Skalenniveau der aV.
Wahr (Die Wahl des non-parametrischen Verfahrens hängt von der Unabhängigkeit der Stichproben und dem Skalenniveau der Variablen ab.)
Für den Friedman-Test lässt sich eine X²-verteilte Prüfgröße berechnen.
Progressive Entscheidungen bei Voraussetzungsverletzungen bei parametrischen Verfahren heißt, dass die H1 ggf. zu spät angenommen wird.
Falsch (Progressive Entscheidungen beziehen sich darauf, wie frühe Entscheidungen bezüglich der Verletzung von Voraussetzungen getroffen werden, und nicht auf die Annahme von H1.)
Signifikanzprüfungsverfahren für ordinalskalierte Daten arbeiten mit der Umwandlung der Daten in Häufigkeiten.
Für den X²-Anpassungstest für eine Variable kann man einen Kontingenzkoeffizienten berechnen.
Non-parametrische Verfahren werden angewendet bei der Verletzung von Anwendungsvoraussetzungen für parametrische Verfahren sowie für Rang- und Nominaldaten.
Um den kritischen X²–Wert aus der Verteilungstabelle abzulesen, benötigt man den empirischen X²-Wert.
Falsch (Um den kritischen X²-Wert abzulesen, benötigt man die Anzahl der Freiheitsgrade und das Signifikanzniveau α.)
Last changed5 months ago