Buffl

Qunatitative Forschung 1

TG
by Tank G.

Wie schätzen wir Parameter?

Parameter können entweder durch Punkt-Schätzung oder Intervallschätzung ermittelt werden. Die Wahl der Methode hängt von der Zielsetzung und den verfügbaren Daten ab. Häufig verwendete Techniken sind die Maximum-Likelihood-Methode und Konfidenzintervalle, während bayessche Methoden Vorwissen einbeziehen.

Punkt-Schätzung:

  • Ziel: Einen einzigen Wert für den unbekannten Parameter schätzen.

  • Beispiel:

    • Der Mittelwert einer Stichprobe (xˉ) als Schätzer für den Populationsmittelwert (μ).

    • Die Stichprobenvarianz (s2) als Schätzer für die Populationsvarianz (σ2).

  • Methoden:

    • Maximum-Likelihood-Schätzung (MLE): Schätzt den Parameter so, dass die Wahrscheinlichkeit der beobachteten Daten maximiert wird.

    • Methode der kleinsten Quadrate: Minimiert die Summe der quadrierten Abweichungen zwischen Modell und Daten.

Intervallschätzung:

  • Ziel: Ein Konfidenzintervall berechnen, das den wahren Parameter mit einer bestimmten Wahrscheinlichkeit enthält.

  • Beispiel:

    • Das 95%-Konfidenzintervall für den Mittelwert gibt einen Bereich an, in dem der Populationsmittelwert mit 95%iger Wahrscheinlichkeit liegt.

Bayessche Schätzung:

  • Ziel: Berücksichtigt neben den Stichprobendaten auch Vorwissen (Prior-Verteilung).

  • Kombiniert das Vorwissen mit den Daten (Likelihood) zu einer Posterior-Verteilung.

Vorgehen zur Schätzung:

  1. Daten erheben:

    • Eine repräsentative Stichprobe aus der Population ziehen.

  2. Schätzmethode wählen:

    • Punkt-Schätzung (z. B. MLE) oder Intervallschätzung (z. B. Konfidenzintervalle).

  3. Formel oder Algorithmus anwenden:

    • Beispiel für den Stichprobenmittelwert:μ^=xˉ=1n∑i=1nxiμ^​=xˉ=n1​i=1∑n​xi​

    • Beispiel für die Stichprobenvarianz:σ^2=1n−1∑i=1n(xi−xˉ)2σ^2=n−11​i=1∑n​(xi​−xˉ)2

  4. Güte des Schätzers überprüfen:

    • Kriterien:

      • Erwartungstreue: Der Schätzer liefert im Durchschnitt den wahren Parameterwert.

      • Effizienz: Der Schätzer hat die geringste Varianz unter allen erwartungstreuen Schätzern.

      • Konsistenz: Mit wachsender Stichprobengröße nähert sich der Schätzer dem wahren Parameter an.

Durch die Auswahl der Methode können Sie festlegen, wie unabhängige Variablen in die Analyse eingeschlossen werden.

Anhand verschiedener Methoden können Sie eine Vielfalt von Regressionsmodellen mit demselben Set von Variablen erstellen.

Nenne und erkläre sie

Einschluss (Regression). Eine Prozedur für die Variablenauswahl, bei der alle Variablen eines Blocks in einem einzigen Schritt aufgenommen werden.

• Stepwise. Bei jedem Schritt wird die unabhängige Variable eingegeben, die nicht in der Gleichung mit der kleinsten Wahrscheinlichkeit von F enthalten ist, wenn diese Wahrscheinlichkeit ausreichend klein ist. Bereits in der Regressionsgleichung enthaltene Variablen werden entfernt, wenn ihre F Wahrscheinlichkeit hinreichend groß wird. Das Verfahren endet, wenn keine Variablen mehr für Aufnahme oder Ausschluss infrage kommen.

• Entfernen. Ein Verfahren zur Variablenauswahl, bei dem alle Variablen eines Blocks in einem Schritt ausgeschlossen werden.

• Rückwärtselimination. Eine Prozedur zur Variablenauswahl, bei der alle Variablen in die Gleichung aufgenommen und anschließend sequenziell entfernt werden. Die Variable mit der kleinsten Teilkorrelation zur abhängigen Variablen wird als erste für den Ausschluss in Betracht gezogen. Wenn sie das Ausschlusskriterium erfüllt, wird sie entfernt. Nach dem Ausschluss der ersten Variablen wird die nächste Variable mit der kleinsten Teilkorrelation in Betracht gezogen. Das Verfahren wird beendet, wenn keine Variablen mehr zur Verfügung stehen, die die Ausschlusskriterien erfüllen.

• Vorwärtsauswahl. Eine Prozedur zur schrittweisen Variablenauswahl, bei der Variablen sequenziell in das Modell eingegeben werden. Die erste Variable, die in Betracht gezogen wird, ist die mit der größten positiven bzw. negativen Korrelation mit der abhängigen Variablen. Diese Variable wird nur dann in die Gleichung aufgenommen, wenn sie das Aufnahmekriterium erfüllt. Wenn die erste Variable aufgenommen wurde, wird als Nächstes die unabhängige Variable mit der größten partiellen Korrelation betrachtet. Das Verfahren endet, wenn keine verbliebene Variable das Aufnahmekriterium erfüllt.

Welche Annahmen, die in der linearen Regressionsanalyse und in vielen anderen statistischen Verfahren eine wichtige Rolle spielen gewährleisten Gültigkeit und Zuverlässigkeit der Ergebnisse?

A1) Additivität und Linearität

  • Diese Annahme besagt, dass die Beziehung zwischen den unabhängigen Variablen (UV) und der abhängigen Variablen (AV) linear ist und additive Effekte vorliegen. Das bedeutet, dass sich der Effekt jeder unabhängigen Variablen auf die abhängige Variable nicht in Wechselwirkungen mit anderen Variablen verändert.

A2) Es fehlen keine relevanten UVs

  • Es wird angenommen, dass alle relevanten Variablen, die den Wert der abhängigen Variablen beeinflussen könnten, in das Modell aufgenommen wurden. Ein fehlendes oder ausgelassenes wichtiges Prädiktor könnte das Modell verfälschen und zu verzerrten Ergebnissen führen (sogenannte omitted variable bias).

A3) Die UVs werden ohne Fehler gemessen

  • In der Praxis ist es oft schwer, Variablen ohne Messfehler zu erfassen, aber diese Annahme geht davon aus, dass alle unabhängigen Variablen korrekt gemessen werden. Messfehler in den UVs können zu verzerrten Schätzungen und fehlerhaften Ergebnissen führen.

A4) Varianzhomogene Residuen (Homoskedastizität)

  • Homoskedastizität bedeutet, dass die Varianz der Residuen (Fehlerterme) konstant über alle Werte der unabhängigen Variablen hinweg ist. Eine Verletzung dieser Annahme, die als Heteroskedastizität bezeichnet wird, kann zu ineffizienten Schätzungen und verzerrten Testergebnissen führen.

A5) Unkorrelierte Residuen

  • Die Residuen sollten unkorreliert sein, d.h., die Fehler der Vorhersagen eines Wertes sollten nicht mit den Fehlern der Vorhersagen eines anderen Wertes zusammenhängen. Wenn dies nicht der Fall ist (z. B. bei Zeitreihen oder in Paneldaten), kann das zu ineffizienten Schätzungen und verzerrten Ergebnissen führen.

A6) Normalverteilte Residuen

  • Für die Durchführung von Hypothesentests und die Konstruktion von Konfidenzintervallen wird oft angenommen, dass die Residuen (Fehlerterme) normalverteilt sind. Diese Annahme ist vor allem für kleine Stichproben wichtig, während große Stichproben aufgrund des zentralen Grenzwertsatzes oft auch ohne diese Annahme eine verlässliche Schätzung liefern.

A7) Keine zu starke Multikollinearität

  • Multikollinearität tritt auf, wenn zwei oder mehr unabhängige Variablen stark miteinander korreliert sind. Eine starke Multikollinearität kann zu instabilen Schätzungen der Regressionskoeffizienten führen und die Interpretation des Modells erschweren.

Was kannst du aus folgendem t-test für unabhängige Stichproben ablesen?

  • Oben bei "Gruppenstatistiken" siehst du, bei wie vielen Fällen/Personen das Merkmal erfasst wurde. 687 Personen hatten angegeben, in ihrer Ehe sehr zufrieden zu sein, 426 waren ziemlich oder nicht zufrieden. In der Spalte "Mittelwert" sind die jeweiligen Gruppenmittelwerte angegeben.

  • Hier lässt sich bereits erkennen, dass die Mittelwerte nicht besonders weit auseinander liegen: 2.78 Stunden Fernsehen pro Tag bei den ziemlich und nicht Zufriedenen sowie 2.58 Stunden bei den sehr Zufriedenen. Diesen Abstand siehst du auch in der unteren Tabelle bei "Mittlere Differenz": .201 oder 0.201. Das entspricht ungefähr 12 Minuten: SPSS gibt keine Minuten an, daher muss man das umrechnen, hier ein Fünftel (0.2) einer Stunde.

  • Die Tabelle "Test bei unabhängigen Stichproben" ist zweigeteilt, was man leider nicht unmittelbar erkennen kann. Auf der linken Seite wird der sog. Levene-Test durchgeführt, welcher überprüft, ob die Varianzen in beiden Gruppen (ungefähr) gleich sind (selbstverständlich werden sie nie komplett gleich sein).

  • Die Nullhypothese dieses Tests lautet: "Die Varianzen sind in beiden Gruppen gleich.". Dies bedeutet, dass ein signifikanter Levene-Test anzeigt, dass sich die Varianzen der beiden Gruppen signifikant unterscheiden. Da die Standardabweichung die Wurzel aus der Varianz ist, könnte man sagen, dass der Test überprüft, ob die Standardabweichungen gleich sind. Dies wiederum kannst du bereits oben bei Gruppenstatistiken annähernd erkennen.

  • Wofür braucht man den Levene-Test? Er sagt uns, in welcher Zeile wir das Ergebnis des t-Tests ablesen sollen.

  • Hier sehen wir in der Spalte "Signifikanz" beim Levene-Test den Wert .606 oder 0.606. Da dieser deutlich über dem konventionellen kritischen p-Wert von .05 liegt, haben wir ein nicht-signifikantes Ergebnis, was bedeutet, dass die Varianzen (Standardabweichungen) der beiden Gruppen ähnlich sind. Das kannst du bei Gruppenstatistiken verifizieren: in der Spalte "Std.-Abweichung" siehst du die Werte 2.167 und 1.986, also recht ähnliche Standardabweichungen. 

  • Daher lesen wir das Ergebnis des t-Tests in der Zeile "Varianzen sind gleich" ab.

  • Nun endlich zum t-Test: Du kannst das Ergebnis in der Spalte "Sig. (2-seitig)" ablesen. Da steht .113, also ein nicht signifikantes Ergebnis. 

  • Aber vielleicht denkst du dir jetzt: wir haben doch einseitig (links) getestet – wieso steht hier jetzt zweiseitig? SPSS testet bei den älteren Versionen immer zweiseitig! Bei den neueren Versionen siehst du auch den p-Wert für die einseitige Testung.

Werte folgenden Output ein EINFACHEn LINEAREn REGRESSION aus

  • Bei "Aufgenommene/Entfernte Variablen" wird angegeben, welche Variablen bzw. Prädiktoren in das Regressionsmodell aufgenommen wurden. Dieses Feld spielt besonders dann eine Rolle, wenn man z. B. theoriegeleitet schrittweise Variablen entfernt oder hinzufügt – was wir hier jedoch nicht tun. Außerdem haben wir momentan ohnehin nur einen Prädiktor definiert. Zudem wird in der rechten Spalte die verwendete Methode angegeben, hier "Einschluss", d. h. alle definierten Prädiktoren wurden ins Modell aufgenommen. In der Fußnote kannst du immer ablesen, was die abhängige Variable bzw. das Kriterium ist.

  • Bei "Modellzusammenfassung" findest du die Varianzaufklärung. Wie viel Prozent der gesamten Variabilität der Werte erklärt unser Regressionsmodell? Dazu schaust du bei der einfachen Regression bei "R-Quadrat" und siehst .068. Wenn du das mit 100 multiplizierst, erhältst du den Prozentsatz der aufgeklärten Varianz. Das wären sage und schreibe 6.8%, also nicht besonders viel.

  • Die Tabelle "ANOVA" zeigt die Ergebnisse eines F-Tests, der (auch) zur Welt der Varianzanalyse gehört (Analysis of Variance, ANOVA). Dass er hier angezeigt wird, liegt daran, dass sowohl die Regression als auch die Varianzanalyse demselben mathematischen Modell entstammen, nämlich dem Allgemeinen linearen Modell, ALM. Daher lässt sich jede Regression als Varianzanalyse rechnen – und umgekehrt.

  • Beim F-Test interessiert dich letztlich nur der p-Wert, der bei "Sig." steht: .000 zeigt ein hochsignifikantes Ergebnis an. Die Aussage dieses sog. globalen F-Tests ist einfach nur, dass das Modell etwas taugt und sich die Wirkung des Prädiktors von 0 unterscheidet. Mehr wissen wir erst einmal nicht. 

  • Doch um mehr über den Effekt des Prädiktors herauszufinden, gibt es die Tabelle "Koeffizienten". Hier kannst du in der Spalte "Regressionskoeffizient ß" in der ersten Zeile die Konstante a sowie den Effekt des Prädiktors in der Original-Einheit ablesen und somit die Regressionsgerade basteln: y = a + bx. Hier wäre das: y = 5.523 – 0.201x

  • Zu guter Letzt siehst du dir ganz rechts bei "Sig." an, ob der Effekt des Prädiktors signifikant ist: .000 deutet auf ein hochsignifikantes Ergebnis hin (die Signifikanz der Konstante in der ersten Zeile interessiert nicht).

  • Fazit: Die Fernsehdauer lässt sich zu einem kleinen Teil (6.8%) aus dem höchsten abgeschlossenen Schuljahr vorhersagen. Der Effekt des Prädiktors von -.201 besagt, dass mit jedem weiteren abgeschlossenen Schuljahr die Fernsehdauer um ca. 12min absinkt (negativer Zusammenhang: je höher das Schuljahr, desto geringer die Fernsehdauer – oder: je weniger Schuljahre, desto mehr Zeit vor dem Fernseher).

Werte folgend Outputs einer MULTIPLEn LINEAREn REGRESSION aus:

  • Die Tabelle "ANOVA" zeigt die Ergebnisse des F-Tests. Die getestete Nullhypothese lautet: Keiner der Prädiktoren hat einen Einfluss auf das Kriterium. Sobald der Test wie hier signifikant wird (.000), bedeutet das, dass mindestens einer der Prädiktoren einen signifikanten Einfluss auf das Kriterium hat. Welcher das ist, wird jedoch nicht angezeigt

  • Um das herauszufinden, sehen wir wieder in die Tabelle "Koeffizienten". In der Spalte "Regressionskoeffizient ß" siehst du wie oben in der ersten Zeile die Konstante a sowie darunter die Effekte der einzelnen Prädiktoren in der Original-Einheit. Jetzt könntest du wieder die Regressionsgerade aufstellen, hier: y = 4.955 – 0.192x1 + 0.045x2+0.008x3.

  • Wie du siehst, hat sich der Einfluss des höchsten abgeschlossenen Schuljahrs im Vergleich zum Output bei der einfachen Regression leicht verringert. Meist verändern sich die Effekte der Prädiktoren (die sog. ß-Koeffizienten), wenn man Variablen hinzunimmt oder entfernt. Stell' dir das systemisch vor oder wie ein Mobile, das aus Papiervögeln besteht. In dem Moment, in dem du einen Papiervogel entfernst oder hinzufügst, ändert sich das Gefüge und Zusammenspiel der anderen. So ähnlich ist das hier auch.

  • Da die Effekte der Prädiktoren in den Einheiten vorliegen, in denen sie gemessen wurden, lassen sie sich nicht direkt vergleichen. Dafür gibt es  jedoch die Spalte "Standardisierte Koeffizienten". Hier kannst du den Effekt der einzelnen Koeffizienten/Prädiktoren direkt miteinander vergleichen.

  • Kleiner Hinweis: nur weil ein Prädiktor negativ ist, heißt das nicht, dass er einen kleineren Effekt hat! Es gilt beim Vergleichen von Koeffizienten zunächst nur der Betrag, der absolute Effekt. Und dieser kann positiv oder negativ sein.

  • Nun zum Vergleich der Prädiktoren bei "Standardisierte Koeffizienten": hier sieht man, dass das höchste abgeschlossene Schuljahr bei weitem den größten Effekt hat (-.249), gefolgt vom Alter (.063)und dann vom Geschlecht (.010). 

  • Jetzt sehen wir uns noch ganz rechts bei "Sig." an, ob die einzelnen Prädiktoren einen signifikanten Effekt auf das Kriterium haben: .000 beim höchsten abgeschlossenen Schuljahr ist ein hochsignifikantes Ergebnis. Das Geschlecht ist kein signifikanter Prädiktor (.618), das Alter hingegen schon (.002), ebenfalls hochsignifikant (die Signifikanz der Konstante in der ersten Zeile interessiert nicht). Hier zeigt sich übrigens am Beispiel des Alters, dass ein Effekt auch dann (hoch-) signifikant sein kann, wenn er verschwindend gering ist!

  • Es macht also Sinn, das Geschlecht aus dem Modell zu entfernen. Hier siehst du den Output für das Modell mit den Prädiktoren Alter und höchstes abgeschlossenes Schuljahr (man könnte jedoch, wie bereits vorher erwähnt, auch das Alter ohne große Varianzaufklärungs-Verluste aus dem Modell entfernen und wäre dann wieder bei obigem Output für die einfache Regression).

FAZIT: Die Fernsehdauer pro Tag lässt sich zu einem kleinen Teil (7.1%) aus dem höchsten abgeschlossenen Schuljahr und dem Alter vorhersagen. Der Effekt des Prädiktors von -0.192 besagt, dass mit jedem weiteren abgeschlossenen Schuljahr die Fernsehdauer um knappe 12min absinkt (negativer Zusammenhang: je höher das Schuljahr, desto geringer die Fernsehdauer). Und der nahezu vernachlässigbare Effekt des Alters von 0.008 bedeutet, dass mit jedem Lebensjahr die Fernsehdauer um ein paar Sekunden ansteigt (positiver Zusammenhang).

Werte folgenden Mann Whitney u Test aus:

  1. Verwenden Sie den gelb markierten Text, wenn in Ihrer Studie (z. B. Hundebesitzerinnen und Nicht-Hundebesitzerinnen) kein signifikanter Unterschied zwischen den beiden Gruppen festgestellt wurde. Verwenden Sie den gold markierten Text, wenn ein signifikanter Unterschied festgestellt wurde. Ein Unterschied ist signifikant, wenn der p-Wert in der Tabelle „Teststatistik“ kleiner oder gleich dem von Ihnen gewählten Alpha-Niveau ist (typischerweise α = 0,05). In unserem Beispiel ist der einzige angegebene p-Wert „Asymp. Sig. (2-tailed)“. Bei kleinen Stichproben könnte auch ein „Exact Sig. (2-tailed)“-p-Wert im SPSS-Ausdruck erscheinen. In diesem Fall berichten Sie diesen Wert („Exact Sig“).

  2. Um festzustellen, welche der beiden Gruppen in Ihrer Studie eine höhere (oder niedrigere) Ausprägung der abhängigen Variablen hat (z. B. Wurfweite eines Frisbees), überprüfen Sie die Tabelle „Ränge“. In unserem Beispiel zeigen die Werte, dass die Frisbee-Wurfweiten von Hundebesitzerinnen (mittlerer Rang: 30,89) höher sind als die von Nicht-Hundebesitzerinnen (mittlerer Rang: 22,19). Wählen Sie ein geeignetes Adjektiv, um die beiden Gruppen zu vergleichen (z. B. höher, niedriger, größer, schneller usw.).

  3. Berichten Sie den Mann-Whitney-U-Wert aus der Tabelle „Teststatistik“ im SPSS-Ausdruck mit zwei Dezimalstellen.

  4. Der z-Wert eines Mann-Whitney-U-Tests in der Tabelle „Ränge“ im SPSS-Ausdruck ist immer negativ. Berichten Sie diesen Wert mit zwei Dezimalstellen. Wenn der z-Wert kleiner als –1,000 ist, fügen Sie eine führende Null hinzu. Beispiel: –.041 wird als –0,04 berichtet.

  5. Wenn die Fallzahl in beiden Gruppen, die Sie vergleichen, jeweils 20 oder weniger beträgt, berichten Sie den U-Wert und verwenden Sie den grau markierten Text. Wenn die Fallzahl in einer oder beiden Gruppen größer als 20 ist, berichten Sie den z-Wert und verwenden den rosa markierten Text. In unserem Beispiel beträgt die Fallzahl in der Gruppe der Nicht-Hundebesitzer*innen 31, also berichten wir den z-Wert.

  6. Berichten Sie den genauen p-Wert mit zwei oder drei Dezimalstellen entsprechend dem SPSS-Ausdruck. Wenn der p-Wert jedoch .000 beträgt, berichten Sie ihn als < .001. Fügen Sie dem p-Wert keine führende Null hinzu.

Beispiel für einen Mann-Whitney-U-Test im APA-Stil Ein Mann-Whitney-U-Test wurde durchgeführt, um zu überprüfen, ob sich die [Frisbee-Wurfweite] zwischen [Hundebesitzerinnen] und [Nicht-Hundebesitzerinnen] unterscheidet. Die Ergebnisse zeigten, dass [Hundebesitzerinnen] signifikant größere [Frisbee-Wurfweiten] aufwiesen als [Nicht-Hundebesitzerinnen], z = [–2,05], p = [.040].

Author

Tank G.

Information

Last changed