Prozess der Datenanalyse
Beurteilung der Vertrauenswürdigkeit der Daten
Beurteilung der Vertrauenswürdigkeit der Daten sollte immer am Anfang stehen —> noch vor der Deskriptiven Statistik/Datenanalyse
Operationalisierung: Wie kann ich meine Forschungsfrage statistisch umsetzen/messen? Wie gut passt das Design zur Forschungsfrage?
Design: Hochwertige Studiendesigns, sinnvolles Setting, Wurde randomisiert?
Stichprobengröße: Gesetz der Größen Zahl —> je größer die Stichprobe, desto verlässlicher die Daten —> ist die Stichprobe hinreichend groß?
Qualität von Daten: Gibt es viele Dropout-Werte? Ist/Bleibt die Stichprobe repräsentativ? Gibt es zufällig oder systematisch fehlende Werte? —-> Dadurch großer/kaum Impact auf meine Studie?
Qualität von Messinstrumenten: Gütekriterien erfüllt? Objektivität, Reliabilität, Validität, Standardisierung
Beurteilung der Bedeutsamkeit der Ergebnisse
Deskriptive Ergebnisse (Effekte und Effektgrößen) liefern bereits absolute oder relative Angaben zur Größe/Bedeutsamkeit der Forschung —> liefern Antworten auf unsere Hypothesen
Zwei mögliche Alternativen, um die Bedeutsamkeit der Effekte zu Beurteilen
Absolut (unstandardisiert): Größe und Richtung des Effekts in Rohwerten
Relativ (standardisiert): Rohwerte relativiert an Streuung
Effekte und Effektgrößen können deskriptiv (bezogen auf die Stichprobe) und inferentiell (bezogen auf die Population/Zielgruppe) interpretiert werden
Beurteilung der Generalisierbarkeit (Inferenz)
Wie Ähnlich sind sich Stichprobe und Zielgruppe?
Stichprobe sollte immer repräsentativ seinàim besten Falle durch echte Zufallsstichprobe umsetzbar, jedoch oftmals echte zufällige Ziehungen nicht möglich
Mögliche Stichproben in der Psychologie
Echte Zufallsstichprobe (selten)
Cluster-Stichprobe (häufig) —> ökonomischer; bestimmte Cluster zunächst zufällig gezogen
Willkürliche Stichproben/Convenience Sample (sehr häufig)
v. a. in der psychologischen Forschung oft eingesetzt (Studierende, Online-Portal etc.)
Repräsentativität nicht wirklich gegeben
Generalisierbarkeit dadurch eigentlich nicht zulässig
für erste Einstiege in neue Forschungsfelder/Pilotstudien, schwer zugänglichen Populationen jedoch sinnvoll und legitim
Verlässlichkeit der Schätzung —> Frequentistischer Ansatz
Güte/Verlässlichkeit der Schätzung für die Population durch den empirischen Kennwert der vorliegenden Studie soll angegeben werden
Hilfreich für die Beantwortung sind:
Kriterien zur Beurteilung der Vertrauenswürdigkeit der Daten (Stichprobengröße, Design, Qualität der Daten/Messinstrumente)
Kriterien zur Beurteilung der Generalisierbarkeit (Zufallsziehung, repräsentativ bzw. relevant oder nicht?)
Mithilfe des frequentistischen Ansatzes das „durchschnittliche“ Ausmaß an Unsicherheit bei der Schätzung von Parametern ermitteln
Inferenzstatistik
Was ist die Idee der Inferenzstatistik?
Wir wollen mit Hilfe einer durchgeführten Studie überlegen, was theoretisch passieren würde, wenn ich die gleiche Studie immer wieder (unendlich oft) wiederholen würde
Theoretische Stichprobenverteilung
Zentrale Frage:
Würde dabei etwas Ähnliches herauskommen?
Würden die Ergebnisse stark/wenig schwanken?
Wie breit wäre die Streuung?
Ist meine Schätzung für die Population stabil/vertrauenswürdig?
Empirische vs. Theoretische Stichprobenverteilung
Form der Verteilung:
Zentraler Grenzwertsatz: Verteilung einer großen Anzahl von Stichprobenergebnissen folgt einer Normalverteilung. Diese ist umso eher der Fall, je größer die einzelnen Stichproben sind.
Zentrale Grenzwertsatz gilt erst bei Stichproben ab ca. 30 Personen
Mittelwert der Verteilung:
Unser Studienergebnis = ist die beste Schätzung für die Population (wir haben nichts anderes)
Streuung der Verteilung:
Standardfehler (Standardabweichung einer Stichprobenverteilung)
Sinn der theoretischen Stichprobenverteilung => Zeigt die Verlässlichkeit der Parameterschätzung durch die Streuung (Bandbreite möglicher Ereignisse) bzw. dem Standardfehler (kleine Streuung besser)
Last changeda year ago