Wie ist der Ablauf eines Forschungsprozesses?
Thema und Ziel
Forschungsfrage
Hypothesen
Operationalisierung
Theoretische Begriffe in Variablen umwandeln
Indikatoren für die Variablen festlegen
Merkmalsausprägungen der Indikatoren bestimmen
Datenerhebun
Datenauswertung
Ergebnisbericht
Welche Schritte müssen vor der Datenerhebung durchgeführt werden?
Studiendesign festlegen
Intervention definieren
Kontrollintervention oder Kontrollgruppe definieren
Ein- und Ausschlusskriterien bestimmen
Variablen und deren Operationalisierung festlegen
Passendes Outcome wählen
Störvariablen (Covariaten, Confounder) erkennen
Skalenniveaus bestimmen
Statistische Auswertung planen
Sample Size berechnen
Nenne Beispiele für verschiedene Studiendesigns?
randomisierte kontrollierte Studie (RCT) - longitudinal
Kohortenstudie - longitudinal
Querschnittsstudie (cross sectional)
Was machen Messinstrumente?
= erfassen die Ausprägungen von Merkmalen in numerischer oder kategorischer Form
Was sind Variablen?
= sind alle Parameter, die man in einer Studie als Daten sammelt, also alles, was an Objekten (PaCenten/Fällen/Beobachtungen...) gemessen oder erhoben wird
Welche Variablen unterscheidet man?
Unterscheidung der Variablen durch:
ihrem Stellenwert für die Untersuchung
unabhängige/abhängige Variable
Moderator-, Kontroll-, Störvariable
der Art ihrer Merkmalsausprägungen
diskret / stetig = nominal/ordinal/intervalskaliert
Was ist der Prädiktor?
Unabhängige Variable
Was ist das Kriterium?
Abhängige Variable
Was ist eine Moderatorvariable?
= die moderierende Variable verändert den Einfluss der unabhängigen auf die abhängige Variable (Unterscheidung zwischen Kontrollvariable [Covariate] und Störvariable [Confounder])
—> Eine Moderatorvariable verändert aufgrund ihres Wertes den Effekt, den die unabhängige Variable auf die abhängige Variable hat => Der Moderator verändert also die Wirkungskomponente innerhalb der Ursachen-Wirkungs-Beziehung zweier Variablen
Was ist eine Covariate?
= ist eine Moderatorvariable, die vorsorglich zur Kontrolle des Resultats erhoben wird
Was ist ein Confounder?
= Die Störvariable ist eine Moderatorvariable, die nicht kontrolliert (weil nicht beachtet oder übersehen) wird —> Limitation der Studie, die in der Diskussion aufgegriffen werden muss
Wovon ist die Sample Size abhängig?
abhängig von
der Effektstärke
Studiendesign
geplanter statistischer Auswertung
Verteilung der Messwerte
Grad der Sicherheit
—> Sample Size für statistische Signifikanz wird größer, je kleiner der gesuchte Unterschied sein soll und je größer die Streuung der Daten ist
Wovon ist die Effektstärke abhängig?
Größe des Unterschieds
Varianz der Daten
—> wenn cohens d groß ist, wird nur eine kleine Sample size benötigt
Einteilung der Effektstärke
0,2 kleiner Effekt
0,5 mittlerer Effekt
0,7/0,8 großer Effekt
Welche Korrelationstests gibt es und wann wird welcher angewendet?
Spearman
Nicht-Normalverteilung
Ordinalskala
Pearson
Normalverteilung
metrische Daten
Was ist der Regressionskoeffizient?
= bilden in der Regressionsanalyse die Stärke des Einflusses verschiedener Prädiktorvariablen auf das Kriterium ab
Was löst eine scheinbare Korrelation auf?
Moderatorvariable (3. Variable)
Was ist der Korrelationskoeffizient? Was ist die Voraussetzung? Wie wird er eingeteilt?
= Einheit des Korrelationswertes ist r („Pearson‘s r“)
—> Voraussetzung: mindestens intervallskalierte Daten
zeigt Zusammenhang zwischen zwei Variablen an
r = +1.00 maximal hohe positive Korrelation (Regressionsgerade zeigt von links unten nach rechts oben) —> beide Werte gehen in die gleiche Richtung
r = - 1.00 maximal hohe negative Korrelation (Regressionsgerade zeigt von links oben nach rechts unten) —> Werte entwickeln sich in gegenentsetzte Richtung
r = 0 kein linearer Zusammenhang
Schwache Korrelation: 0 bis 0.29
Moderate Korrelation: 0.3 bis 0.69
Starke Korrelation: 0.7 bis 1.0
Welche Formen der Hypothesen gibt es?
Zusammenhangshypothesen (“je – desto”)
Wer mehr raucht, wird früher sterben
(Äquivalenzhypothesen)
Unterschiedshypothesen (gerichtet oder ungerichtet) —> das gleiche wie ein- oder zweiseitige Hypothesen
Personen, die bunte Werbung gesehen haben, kaufen mehr als Personen, die einfarbige Werbung gesehen haben
Welche Hypothese ist am einfachsten abzulehnen?
Durch die Halbierung bei zweiseitigen Hypothesen ist es einfacher die H0 bei einseitigen Hypothesen abzulehnen —> einseitige Hypothesen haben also den Vorteil, dass H0 leichter abgelehnt werden kann, mögliche Gruppenunterschiede also eher statistisch signifikant sind
Was ist statistische Signifikanz?
= Wahrscheinlichkeit, dass ein Ergebnis auf Zufall basiert (p-Wert)
Was ist das Signifikanzniveau?
= Schwelle des P-Wertes —> Ergebnis ist signifikant, wenn P-Wert kleiner als das Signifikanzniveau ist
Was ist der P-Wert? Was fließt in die Berechnung des P-Wertes mit ein?
= Die Wahrscheinlichkeit einfach durch Zufall ein Ergebnis zu bekommen, das mindestens so gut (oder besser) wie das vom Experiment ist
je kleiner der p-Wert, desto deutlicher die statistische Absicherung von Unterschieden
Einflussfaktoren:
die Höhe der Mittelwertsdifferenz
die Größe der Stichprobe
die Streuung der Messwerte
das Skalenniveau
Was ist der Alpha-Fehler?
= Irrtumswahrscheinlichkeit, die ich akzeptiere, um trotzdem meine Nullhypothese abzulehnen à Sicherheit von 95%, dass Ergebnisse auf Grundgesamtheit übertragen werden können
Ablehnen von H0, obwohl sie gilt; H0 wird fälschlicherweise verworfen (Unterschied in der Studie, obwohl kein Unterschied in der Realität)
„Das Signifkanzniveau wird auf α = 0,05 festgelegt, damit tolerieren wir eine Typ-I-Fehlerwahrscheinlichkeit von 5 %“
Je größer die Stichprobe, desto unwahrscheinlicher ist ein Fehler 1. Art
je mehr Fehler ich zulasse (0,05 Fehler mehr als 0,01), desto kleiner darf die Gruppengröße sein
je größer der Unterschied zwischen zwei Gruppen, desto höher ist auch die Wahrscheinlichkeit, dass sich dieser Unterschied auch in der Grundgesamtheit abbildet und die Wahrscheinlichkeit für einen Fehler 1. Art sinkt
Je höher die Varianz (also Streuung der Daten) innerhalb der Gruppen, desto größer wird die Wahrscheinlichkeit, einen Fehler 1. Art zu begehen
—> eine Kontrolle des Fehler 1. Art, die mit einer Begrenzung des Signifikanzniveaus einhergeht, lässt parallel die Wahrscheinlichkeit, den Fehler 2. Art zu begehen, ansteigen —> den Fehler 2. Art kann man im Vergleich zum Fehler 1. Art nicht durch spezielle Maßnahmen wieder eindämmen
Je geringer das Alpha-Niveau gewählt wird, desto geringer ist die Fehlerwahrscheinlichkeit, dass die Nullhypothese irrtümlich verworfen wird
Was ist der Beta-Fehler?
= die Power, die eine Studie haben soll (hat auch was mit Aussagekraft der Daten zu tun)
—> Power oder Teststärker ist die Fähigkeit eines Tests, einen tatsächlich vorhandenen Unterschied oder Zusammenhang zu zeigen à die Powert wird als Wahrscheinlichkeit ausgedrückt, keinen Fehler 2. – Art zu begehen
Beibehalten von H0, obwohl sie nicht gilt; H0 wird fälschlicherweise beibehalten (Kein Unterschied in Studie, aber Unterschied in Realität)
Je größer die Stichprobe ist, desto kleiner werden die Standardfehler und demzufolge wird auch der beta-Fehler kleiner
Was ist die Normalverteilung?
Die Normalverteilung zeigt, wie man sich bei vielen Wiederholungen einer Messung die Verteilung der Werte vorstellt
Was ist die Standardabweichung?
Varianz = Quadrat der Standardabweichung
Standardabweichung = Wurzel aus der Varianz
= Vereinfacht gesagt, ist die Standardabweichung die durchschnittliche Entfernung aller gemessenen Ausprägungen eines Merkmals vom Durchschnitt
Je größer die Standardabweichung, desto schwieriger ist es einen Unterschied zu finden
Was ist die Varianz?
= ist ein Streuungsmaß, welches die Verteilung von Werten um den Mittelwert kennzeichnet —> beschreibt die gewichtete durchschnittliche quadratische Abweichung einer Zufallsvariable vom Mittelwert/ihrem Erwartungswert
—> Berechnet wird die Varianz, indem die Summe der quadrierten Abweichungen aller Messwerte vom arithmetischen Mittel durch die Anzahl der Messwerte dividiert wird
Was ist das Konfidenzintervall? Wodurch wird er bestimmt?
= ist in der Statistik ein Intervall, das die Präzision der Lageschätzung eines Parameters (z. B. eines Mittelwerts) angeben soll
Konfidenzintervall wird bestimmt durch den Mittelwert, den Standardfehler und den gewünschten Grad an Sicherheit
eine geringere Streuung der Stichprobe führt zu einer höheren Genauigkeit der Schätzung und damit zu kürzeren Konfidenzintervallen à das Konfidenzintervall wird dagegen breiter, wenn ein höherer Grad an Sicherheit erforderlich ist, dass das Konfidenzintervall den Mittelwert der Grundgesamtheit enthält
—> bei positiven und negativen Konfidenzinterallwerten ist auch der p-Wert nicht signifikant
—> H0 darf abgelehnt werden, dass das Konfidenzintervall der mittleren Differenz der Messwerte einer Variablen die Null nicht mit einschließt
—> es ist auch möglich Unterschiedshypothesen zu testen —> H0 darf abgelehnt werden, wenn die Konfidenzintervalle der Mittelwertdifferenzen der jeweiligen Gruppen sich nicht überschneiden
Je größer die Streuung, desto größer der Bereich in dem der Konfidenz-Intervall liegt. Je kleiner die Streuung, desto sicherer kann man über die Korrelation in der Grundgesamtheit sein.
Je höher die Standardabweichung der Stichprobe, desto weiter/länger ist das Konfidenzintervall
Wovon ist die Wahl des statistischen Tests abhängig?
Fragestellung
Skalenniveau der Daten
Normalverteilung der Messwerte (und weiteren Test-Voraussetzungen für bestimmte Tests)
Anzahl der Gruppen und Messzeitpunkte
Abhängige oder unabhängige Variablen (identische Gruppe oder unterschiedliche Gruppen)
Etc.
Welchen statistischen Tests wähle ich für was?
Was sind die Testvoraussetzungen für ANOVA?
Metrische Daten
Mindestens intervallskalierte Daten
Kolmogorov-Smirnov
Eher kleinere Stichproben
Shapiro-Wilk
Eher größere Stichproben
—> sollten nicht signifikant sein! à dann Normalverteilung —> p-Wert sollte anders als in allen anderen statistischen Verfahren möglich nahe bei 1 sein
Homoskedastizität
Levene’s Test
= Homoskedastizität (Varianzhomogenität) ist gegeben, wenn die Varianz in allen Gruppen etwa gleich ist —> Die Varianz der Residuen (Residuum = Abstand zwischen Regressionsgerade und beobachtete Werte des Kriteriums) muss für alle Werte konstant sein
—> Darf nicht signifikant sein!
Spherizität
Mauchly’s Test
= Spherizität ist gegeben, wenn die Differenzen aller Stufen der unabhängigen Variablen gleich
Korrektur, wenn signifikant —> Greenhouse-Geisser und Huynh-Feldt
Was sind die T-Test-Voraussetzungen?
Metrische Daten, mindestens intervallskaliert
Normalverteilt
Was ist die Bonferroni-Korrektur?
= Anpassung der Signifikanzniveaus über mehrere zusammenhängende Tests (bei der Durchführung von multiplen Tests, beträgt die Wahrscheinlichkeit für den Fehler 1.Art für alle Tests zusammen nicht mehr 5% [bzw. 1%], sondern deutlich mehr) —> das Risiko, dass man mindestens ein signifikantes Ergebnis erhält, obwohl gar kein Effekt vorliegt, ist bei multiplen Tests also deutlich erhöht:
Sehr konservativ —> korrigiert das alpha-Niveau sehr stark nach unten -> schwieriger mögliche Effekte zu finden
Steigendes Risiko für den Fehler 2. Art (beschreibt, dass ein Effekt nicht entdeckt wird, obwohl er in Wahrheit existiert) —> Test wird nicht signifikant, obwohl eigentlich ein signifikanter Effekt besteht
Was ist der Unterschied zwischen parametrischen und nicht-parametrischen Tests?
nicht parametrische Tests haben zwar weniger Voraussetzungen als parametrische Tests, dafür ist ihre Teststärke oder Power aber geringer à die Wahrscheinlichkeit mit einem nicht-parametrischen Verfahren einen signifikanten Unterschied zu finden ist also kleiner
Was sind die Voraussetzungen für nicht-parametrische Tests?
Probanden der Stichprobe sollten zufällig ausgewählt sein
Die Messwerte innerhalb der Stichproben sollten unabhängig voneinander sein
Die Messwerte sollten mindestens ordinalskaliert sein
Was sind die Ziele von Diagrammen?
Verteilung der Daten (how the data is distributed)
Vergleich der Gruppen (how to values compare to each other)
Zusammensetzung der Daten (how the data is composed)
Zusammenhang zwischen zwei Variablen (how values relate to each other)
Was sind psychometrische Tests?
psychometrisch bedeutet, dass ein Test eine gewisse Qualitätsanforderung erfüllt à also keine zufällige Zusammensammlung von Fragen
systematischer Aufbau eines Tests; psychometrische Tests basieren auf Testtheorien, die bestimmte psychische Merkmale erfassen
psychometrische Tests sind untereinander auch vergleichbar, da eine einheitliche/metrische vergleichbare Diagnostik, da sie auf ähnliche Art und Weise konstruiert wurden
die grundsätzliche Annahme von psychometrischen Tests ist, dass man das Verhalten von Personen mithilfe von individuellen Merkmalen dieser Personen erklären kann —> die individuellen Merkmale nennt man Konstrukte (Konstrukt = Persönlichkeitsmerkmal) —> diese Konstrukte möchte man mithilfe eines psychometrischem Test erfassen
Jonkinsz et al., 2012:
erfassen psychische Merkmale quantitativ auf der Basis von Testtheorien
ermöglichen eine metrisch vergleichbare Diagnostik
gehen von der Annahme aus, dass das Verhalten von Personen mithilfe von individuellen Merkmalen (Konstrukten) erklärt werden kann
diese Merkmale sollen mithilfe des Tests erfasst werden
zu Beginn der Testentwicklung wird festgelegt, welches Persönlichkeitsmerkmal (oder bei einer „Testbatterie“: welches Merkmalsspektrum) gemessen werden soll
dieses Persönlichkeitsmerkmal basiert entweder auf aktuellen Theorien, empirischen Befunden und/oder evtl. bereits bestehenden Tests
das zu messende Konstrukt (Persönlichkeitsmerkmal) kann je nach zugrundeliegender Theorie:
„qualitativ“: in Nominalskalen (Kategorien)
quantitativ: in Ordinal-, Intervall-, oder Verhältnisskalen (in graduell abgestuften Merkmalskategorien)
erhoben werden
Wie teilt man Konstrukte ein?
unidimensional = Merkmal repräsentiert nur 1 Konstrukt, z.B. auditive Merkspanne
mehrdimensional = Merkmal repräsentiert mehrere Konstrukte, z.B. Gesundheitsbewusstsein (mehrere Facetten wie z.B. Ernährung, Sport, Schlaf etc.)
Welche systematischen Fehler gibt es bei der Validität eines Fragebogens?
Systematische Fehler, die trotz guter zugrundeliegender Konstrukte zu unerwünschter Variabilität in den Daten führen können
Optimizing
Satisficing
Soziale Erwünschtheit
Tendenz zur Mitte
Acquieszenz
Welche Fragetypen gibt es?
direkte vs. indirekte Fragen
Hypothetische vs. biographiebezogene Fragen
Konkrete vs. abstrakte Fragen
Personalisierte vs. nicht-personalisierte Fragen
Welche Gütekriterien gibt es?
Interne Konsistenz
Test-Retest Reliabilität
Validität
Veränderungssensitivität
Bodeneffekt und Celling-Effekt
Wie wird die interne Konsistenz gemessen?
Optimal Cronbachs Alpha >0.7, <0.95 (zwischen 0,7 – 0,95)
Woraus setzt sich die Reliabilität zusammen? Wie wird die Test-Retest Reliabilität gemessen?
Stabilität
Konsistenz
Äquivalenz
Cohens Kappa oder ICC
<0,40 schlecht
0,41-0,75 ordentlich/gut
>0,76 sehr gut
SEM = standard error of measurement (je kleiner der Standardfehler desto besser)
Wie kann man die Validität unterteilen?
interne Validität
externe Validität
Inhaltsvalidität
Konstruktvalidität
Kriteriumsvalidität
Was ist ein guter Wert für die responsiveness?
> 0,7
Was sind schlechte Werte bei Boden- und Deckeneffekten?
fallen mehr als 15% der Werte von Probanden einer Studie in den Bereich der Decken- oder Bodeneffekte, ist dies bei der Auswertung und Interpretation der Ergebnisse zu berücksichtigen
Was sind die Komponenten der deskriptivne Statistik?
Lagemaße
= zentrale Tendenz des Datensatzes (groß oder klein?)
Mittelwert
Median
Modus
Streuungsmaße
Unterschied der Werte und Ausreißer
Varianz und Standardabweichung
Spannweite und Quartilsabstand
Variationskoeffizient
Standardabweichung geteilt durch Mittelwert
Vorteil gegenüber Standardabweichung à unabhängig von der Maßeinheit
Bei großen Mittelwerten und großen Standardabweichungen sinnvoll
V über 0,3 = heterogen
Korrelationen (Zusammenhangsmaße)
Stärke und Richtung des Zusammenhangs
Zuletzt geändertvor 2 Jahren