1. In welchem Verhältnis stehen Theorie und Hypothese im quantitativen
Forschungsprozess?
. Im quantitativen Forschungsprozess werden zu prüfende Hypothesen (vermutete
Zusammenhänge oder Unterschiede von Merkmalen) häufig aus bestehenden Theorien
gewonnen, hergeleitet. Dabei wird Theorie verstanden als übergeordnete Einheit aus
Lehrmeinungen und Aussagen zur umfassenden Erklärung eines bestimmten Bereichs. Gut
bestätigte Hypothesen können wiederum zur Verbesserung von Theorien beitragen oder
gemeinsam auch ganz neue Theorien formieren.
2. Nennen Sie Charakteristika des quantitativen Paradigmas. Warum spricht man auch von
„standardisierter Forschung“?
Mittels quantitativer Forschungsmethoden sollen Zusammenhänge und Unterschiede von
Merkmalen durch Häufigkeitsmessungen und deren statistische Auswertung erklärt werden.
Merkmale werden dabei meist durch Befragung, seltener auch durch Beobachtung oder
andere Erhebungsarten gemessen. Empirisch ist die Forschung, weil sie die sinnlich erfahrbare
Wirklichkeit analysiert. Standardisiert meint im Kontext des quantitativen Paradigmas, dass
wesentliche Elemente des Forschungsprozesses (Befragungsinstrument, verwendete Theorien
und Begriffe, Stichprobe, Auswertungsverfahren und -ziele sowie der Ablauf) bereits im
Vorhinein weitgehend festgelegt werden.
3. Diskutieren Sie kurz Stärken und Schwächen des quantitativen Paradigmas. Vergleichen
Sie dazu den qualitativen Forschungsansatz.
Als Vorteil des quantitativen Ansatzes gilt die Existenz von anerkannten Gütekriterien, welche
die Überprüfung von Forschungsergebnissen ermöglichen. Weitere Stärken sind die Erfassung
und Untersuchung großer Fallzahlen („Häufigkeitsmessungen“) und die grundlegende
Möglichkeit, Ergebnisse mit inferenzstatistischen Methoden zu generalisieren, das heißt,
Rückschlüsse auf die interessierende Gesamtpopulation zu ziehen.
Stärke des qualitativen Paradigmas ist vor allem der verstehende und explorative,
entdeckende Anspruch. Regelmäßig geäußerte Kritik am quantitativen Vorgehen zielt darauf
ab, dass „nur“ erklärt wird und nicht sinnverstehend rekonstruiert, verstanden werden kann.
Auch ist mit dem gegenwärtig dominanten Paradigma („Testen von Null- und
Alternativhypothesen“) ein gewisses schablonenhaftes, reduziertes Denken verbunden und
die Ergebnisse der Häufigkeitsmessungen sind nicht (ungeprüft) auf den Einzelfall übertragbar.
Die Kritik, nichts Neues zu entdecken und nur bestehende Theorien zu reproduzieren ist
hingegen nicht korrekt: Auch quantitative Forscher entdecken Neues!
4. Erklären Sie den Begriff „Deduktion“.
Deduktion bezeichnet in der empirischen Sozialforschung den forschungslogischen Rahmen
der meisten quantitativen Forschungsprozesse. Hierbei wird ein empirisch erfasster
Sachverhalt zur Prüfung einer bestehenden Gesetzmäßigkeit bei bestimmten gegebenen
Bedingungen benötigt. Wir prüfen also vorab bekannte Hypothesen und Strukturen an der
Wirklichkeit („Phänomenen“) und verifizieren oder falsifizieren diese.
Nennen Sie die drei chronologischen Abschnitte des quantitativen Forschungsprozesses.
Entdeckungszusammenhang – Begründungszusammenhang – Verwertungszusammenhang
2. Erklären Sie den Unterschied zwischen deskriptiver Statistik und Inferenzstatistik.
„Deskriptive“, beschreibende Statistik beschäftigt sich mit der Analyseeinheit der
vorliegenden Stichprobe. Konkret gegebene Daten werden ausgewertet und dargestellt; im
Anschluss daran ist der Schluss von diesen Stichprobenergebnissen auf die zugrunde liegende,
eigentlich interessierende Population („Grundgesamtheit“) Gegenstand der Inferenzstatistik.
3. Nennen und erklären Sie drei Ziele der statistischen Auswertung.
Zur Orientierung im „Dschungel“ der vielen statistischen Verfahren nützlich ist die
Orientierung an folgenden Fragen, die in unterschiedlichem Gewand an jede Auswertung
gestellt werden:
• Wie gut ist ein erstelltes statistisches Modell (Frage nach der Güte)?
• Wie überzufällig ist ein Auswertungsergebnis (Frage nach der Signifikanz)?
• Sind die verfahrensspezifischen Bedingungen erfüllt (Frage nach den Modellannahmen)?
Erklären Sie, worin sich Median und arithmetisches Mittel unterscheiden.
Beide sind Maßzahlen der zentralen Tendenz. Der Hauptunterschied ist, dass das
arithmetische Mittel alle Merkmalsausprägungen in ihrer Höhe miteinbezieht und somit
empfindlich gegenüber Extremwerten ist. Der Median ist unabhängig von Streuung und Höhe
der Merkmalsausprägungen immer derjenige Wert, der die Verteilung in zwei gleich große
Hälften teilt und somit unempfindlich gegenüber Extremwerten ist.
2. Benennen Sie die Anwendungssituationen, für die das geometrische Mittel geeignet ist.
2. Das geometrische Mittel dient der Berechnung durchschnittlicher Wachstums- und
Zerfallsraten.
3. Für welche Merkmale ist der Modus besonders nützlich?
Der Modus gibt bei nominalskalierten Merkmalen die häufigste Merkmalsausprägung an (dort
sind andere Maße der zentralen Tendenz nicht anwendbar).
Erklären Sie das Grundprinzip des CHI²-Tests.
Der CHI²-Test prüft bei einer Kreuztabellenanalyse die beiden Merkmale auf statistische
Unabhängigkeit. Hierzu kontrastiert er die tatsächlich gemessene Verteilung der Merkmale mit
der bei Unabhängigkeit erwarteten.
2. In einer Kreuztabellenanalyse werden Raucher und Nichtraucher in ihrem Schlaganfallrisiko verglichen. Das relative Risiko für Raucher beträgt dabei 3. Interpretieren Sie diesen Wert.
Das Schlaganfallrisiko von Rauchern ist gegenüber Nichtrauchern um das 3-fache erhöht
(äquivalent ist die Aussage: Es beträgt 300 % des Risikos der Nichtraucher).
3. Für den gleichen Zusammenhang (also eine 2*2-Kreuztabelle) wird ein CHI²-Test
durchgeführt und ein Ergebnis von 7 erzielt. Prüfen Sie anhand einer CHI²-Verteilung, ob
dieses Ergebnis signifikant auf dem 5%-Niveau ist.
3. Das Ergebnis ist signifikant, da der kritische Wert bei 5 % und einem Freiheitsgrad (df.) 3,84
beträgt und 7>3,84 ist.
4. Wieviel Freiheitsgrade (df.) hat eine Kreuztabelle mit drei Spalten und drei Zeilen?
. Sie hat (3-1) (3-1) = 4 Freiheitsgrade.
5. Nennen Sie ein geeignetes Maß der Effektstärke für den Zusammenhang zweier
nominalskalierter Merkmale.
Zu nennen sind PHI = √𝐶𝐻𝑙2/𝑛 und der Kontingenzkoeffizient C = √ 𝐶𝐻𝑙2/𝑛+𝐶𝐻𝑙2.
6. Diskutieren Sie kurz die Schwächen einer Kreuztabellenanalyse.
Grundsätzlich kann in einer Kreuztabellenanalyse nur der Zusammenhang zweier Merkmale
untersucht werden; also weder Kausalhypothesen noch multivariate Zusammenhänge. Ein
häufiges Problem der Anwendung (z. B. bei der Einstellungsforschung) ist, dass
Zwischenabstufungen zwischen den Merkmalsausprägungen (pro/contra) nicht erfasst
werden.
1. Erklären Sie, warum beim Vergleich zweier Mittelwerte anstelle einer Varianzanalyse der t-Test berechnet werden sollte.
1. Wegen der Alpha-Fehler-Kumulierung. Die verschiedenen Irrtumswahrscheinlichkeiten von
mehr als zwei t-Test ergeben letztlich einen zu hohen Alpha-Fehler.
2. Welches Verhältnis gibt die F-Test-Statistik an?
das Verhältnis aus erklärter (systemischer) Varianz und unerklärter Varianz (Fehlervarianz)
3. Nennen Sie die drei möglichen Interaktionsverläufe bei einer zweifaktoriellen ANOVA.
Ordinal – Disordinal – Hybrid
4. Eine Kommilitonin hat bei einer zweifaktoriellen ANOVA für den Interaktionseffekt ein partielles ETA² von 0,23 ermittelt und einen F-Wert von 9,2.
a) Interpretieren Sie ETA².
b) Ist der F-Wert signifikant auf dem 5-%-Niveau, wenn die Freiheitsgrade der Verteilung (zwischen den Gruppen) und 24 (innerhalb der Gruppen) betragen?
c) Sollten die Haupteffekte („Einzelfaktoren“) der Analyse interpretiert werden?
4. a) Das partielle ETA² ist ein Maß der Effektstärke bzw. der Varianzaufklärung. Durch den Interaktionseffekt werden 23 % der Varianz erklärt; dies ist bereits ein starker Effekt.
b) Ja, denn der kritische Wert liegt bei 2,78 und 9,2 ist größer.
c) Nein, bei einem signifikanten Interaktionseffekt sollten die Haupteffekte nicht (oder nur sehr eingeschränkt, unter großem Vorbehalt) interpretiert werden.
5. Eine weitere Kommilitonin plant, eine einfaktorielle ANOVA durchzuführen. Sie bemerkt,
dass die Stichprobe sehr klein ist, das abhängige Merkmal nicht normalverteilt und die
Vergleichsgruppen ungleich besetzt sind. Enttäuscht sagt sie: „Ich muss mir ein neues
Thema suchen, da die Bedingungen für das Verfahren verletzt sind.“ Können Sie ihr helfen?
Die Kommilitonin kann entweder eine verteilungsfreie ANOVA nach Kruskal-Wallis berechnen
oder ein Bootstrap-Verfahren anwenden.
6. Erklären Sie multiple Mittelwertvergleiche („Post-Hoc-Tests“) und Treatmentkontraste
(„A-priori-Kontraste“). Diskutieren Sie Stärken und Schwächen der beiden Ansätze.
Multiple Mittelwertvergleiche vergleichen im Anschluss an eine ANOVA alle Gruppen in jede
Richtung miteinander auf signifikante Mittelwertunterschiede. Die empfohlenen Verfahren
stellen dabei sicher, dass bei beliebig vielen Einzelvergleichen keine Alpha-Fehler-Kumulierung
eintritt. Treatment-Kontraste übersetzen im Vorhinein, a priori aufgestellte Hypothesen in
einzelne, gerichtete Gruppenvergleiche. Durch die geringere Anzahl an Vergleichen erzielen
Kontraste eine höhere Teststärke; nicht vorher angelegte Unterschiede bleiben jedoch
unentdeckt.
Nennen Sie die wichtigsten Eigenschaften des Korrelationskoeffizienten r.
1. Der Korrelationskoeffizient r ist ein standardisiertes Maß für den linearen Zusammenhang
zweier metrischer Merkmale. Als solches nimmt er Werte von -1 bis 1 an und informiert über
die Richtung und die Stärke des linearen Zusammenhangs.
2. Erklären Sie die Bedeutung eines Regressionskoeffizienten in einem linearen Regressionsmodell.
2. Der Regressionskoeffizient ist die Steigung der Graden. Inhaltlich quantifiziert er die
Kausalhypothese zwischen den beiden Variablen, d. h. er gibt an, wie die abhängige Variable
(Kriteriumsvariable) variiert, wenn die unabhängige Variable (Prädiktor) um eine Einheit
erhöht wird.
3. Vergleichen Sie kurz die Regressionskoeffizienten und die standardisierten
Regressionskoeffizienten („Beta-Koeffizienten“ oder „Beta-Gewichte“). Diskutieren Sie die
Vor- und Nachteile beider Kennwerte.
Die Beta-Koeffizienten geben die unter 2. dargestellte Beziehung zwischen Prädiktor und
Kriteriumsvariable in Standardabweichungen wieder. Das ist deutlich weniger gut und elegant
zu interpretieren als die unstandardisierten Regressionskoeffizienten. Der Vorteil liegt nun
aber darin, dass Beta-Gewichte durch die Standardisierung vergleichbar sind – das heißt, ich
kann die Stärke des Einflusses zweier Kriteriumsvariablen unmittelbar vergleichen.
4. Nennen Sie die Bedingungen für eine multiple lineare Regressionsanalyse.
4. Die Bedingungen sind:
• Homoskedastizität
• Normalverteilung der Residuen
• Unabhängigkeit der Messungen
• Linearität und Additivität der Beziehungen
• keine übermäßige Multikollinearität
• metrisches Skalenniveau der abhängigen Variablen und metrisches oder nominales Skalenniveau der unabhängigen Variablen
5. Gegeben sei ein Regressionsmodell zur Schätzung des monatlichen Einkommens eines
Arbeitnehmers in Abhängigkeit von den Variablen x1 „Bildungsdauer in Jahren“ und x2
„Berufserfahrung in Jahren“.
a) Formulieren Sie die Regressionsgleichung für eine Konstante 2200 und die
Regressionskoeffizienten b1 = 40 und b2 = 20.
b) Welches Einkommen schätzt das Modell für einen Arbeitnehmer mit 15 Bildungsjahren
und 20 Jahren Berufserfahrung?
5. a) 𝑦̂ = 2200 + 40 ⋅ 𝑥1 + 20 ⋅ 𝑥2
b) 2200 + 40*15 + 20 * 20 = 3200
6. Wie kann die Qualität eines erstellten Regressionsmodells überprüft werden?
Mittels des korrigierten Determinationskoeffizienten R², der die Varianzaufklärung des
Modells standardisiert und den Stichprobenumfang und die Anzahl der Prädiktoren angibt
Erklären Sie die Ziele bzw. die Funktion einer binär-logistischen Regression.
1. Gesucht werden die Variablen, die kombiniert zwei bestehende, empirisch vorgefundene
Gruppen unterscheiden können. Nach der Unterscheidung soll so auch für neue Fälle eine
möglichst gute Zuordnung auf die Gruppen ermöglicht werden (Klassifikationsfunktion).
2. Nennen Sie zwei Möglichkeiten, die Einflüsse unabhängiger Variablen in einer binär-
logistischen Regression abzubilden.
Der Einfluss einzelner unabhängiger Variablen wird zuerst im Regressionskoeffizienten
abgebildet. Dieser ist jedoch nicht (wie im Falle der linearen Regression) ein
Steigungskoeffizient, sondern gibt an, wie sich die Wahrscheinlichkeit, zur höher codierten
Gruppe zu gehören ändert, wenn sich die unabhängige Variable um eine Einheit verändert.
Der Koeffizient kann dann auch auf Signifikanz überprüft werden.
Eine andere Formulierung des Einflusses einer unabhängigen Variablen enthält die „Odds-
Ratio“, das Chancenverhältnis: Aus diesem Kennwert wird ersichtlich, wie sich die Chance, zur
höher codierten Gruppe zu gehören im Vergleich zur zweiten Gruppe verändert, wenn die
unabhängige Variable um eine Einheit verändert wird.
3. Diskutieren Sie daran anschließend Unterschiede zur linearen Regression.
3. Im Unterschied zur linearen Regression ist das abhängige Merkmal dichotom, nominal skaliert.
Für dessen Ausprägungen werden nicht-linear verteilte Wahrscheinlichkeiten berechnet;
während bei einer linearen Regression konkrete Werte für ein abhängiges metrisches Merkmal
geschätzt, berechnet werden. In der linearen Regression ist dieses Ergebnis unbekannt,
während die Gruppenzugehörigkeiten (Ausprägungen der abhängigen Variablen) im Falle der
binär-logistischen Regression im Vorhinein bekannt sind.
4. Erklären Sie, was unter „Trefferrate“ bei diesem Verfahren verstanden wird.
4. Die Trefferrate („Hit-Rate“) bezeichnet den Anteil der durch das Regressionsmodell richtig auf
die Gruppen zugeordneten („klassifizierten“) Fälle.
5. Wie kann bei einer binär-logistischen Regression auf Signifikanz geprüft werden?10 Anwendungsgebiete und Fragestellungen psychologischer Diagnostik
5. Neben der Prüfung der einzelnen Regressionskoeffizienten mittels des CHI²-Tests nach Wald
kann das erstellte Modell auch insgesamt, global geprüft werden: Hierzu wird die
Verbesserung, die das erstellte Modell in der negativen zweifachen logarithmierten
Wahrscheinlichkeitsfunktion leistet, anhand einer CHI²-Verteilung geprüft. Die Differenzen
sind CHI² verteilt und die Anzahl der aufgenommenen unabhängigen Variablen („Parameter“)
liefert die Freiheitsgrade der entsprechenden Verteilung. Wird etwa für ein Basismodell ohne
Variablen ein Funktionsergebnis von 100 erzielt und für ein erstelltes Modell mit zwei
unabhängigen Variablen ein Ergebnis von 90, so ist die Verbesserung signifikant: 100-90 = 10
ist größer als der kritische Wert bei 5%iger Irrtumswahrscheinlichkeit einer CHI²-Verteilung mit
2 Freiheitsgraden (kritischer Wert: 5,99).
1. Diskutieren Sie zwei häufige Schwierigkeiten, die es bei einer Metaanalyse zu
berücksichtigen gilt.
1. Grundlegende Probleme sind:
• Die Schwierigkeit der Identifikation vergleichbarer Studien („Äpfel-Birnen-Problem“).
Da nie zwei exakt gleiche Studien existieren, müssen Kriterien vorgegeben werden,
bis wann eine Studie als vergleichbar gilt (und dies muss selbstverständlich auch
begründet werden). Diskutabel ist hierbei, wie und inwiefern aggregierte Ergebnisse
aus verschiedenen Studien interpretiert werden können.
• Der als Veröffentlichungsbias bekannte Problemkomplex, zielt auf den Aspekt ab,
dass überwiegend signifikante, effektstarke und somit bisherige
Hypothesen/Theorien stützende Studien veröffentlicht werden. Eine Möglichkeit der
Entgegnung ist die zusätzliche Aufnahme nicht-veröffentlichter Studien oder anderer
Dokumente, z. B. Tagungsberichte und Dokumentationen.
2. Erklären Sie, was Ziele der statistischen Auswertung einer Metaanalyse sind.
2. Im Mittelpunkt der statistischen Auswertung stehen die Zusammenfassung („Aggregierung“)
von Effektstärkemaßen und die Analyse sogenannter Moderatorvariablen (oder weiterer
Drittvariableneffekte) zur Erklärung von Unterschieden zwischen Studien. In komplexen, sehr
ambitionierten Metaanalysen wird auch versucht, eine Synthese ganzer Verfahren (z. B.
„Metaregressionen“) zu leisten.
3. Nennen und erklären Sie Vorteile, die Metaanalysen gegenüber sogenannten
Primärstudien haben können.
Die wichtigsten Vorteile gründen vor allem auf dem wesentlich größeren Stichproben-
umfang, der bei einer aus zahlreichen Einzelstudien formierten Metaanalyse zwangsläufig
resultiert:
• die erhöhte statistische Validität einer Metaanalyse; darunter wird die im Vergleich
zur Einzelstudie höhere Teststärke verstanden.
• die zu steigernde externe Validität; das Problem der Übertragbarkeit experimenteller
Studien auf nicht-experimentelle Gegebenheiten wird durch die Einbeziehung
mehrerer Studien (und somit zahlreicher verschiedener nicht-experimenteller
Umwelten) verringert.
• Vereinheitlichung von Ergebnissen, die nur auf unterschiedlichen lokalen/regionalen
Ebenen vorliegen auf einer Gesamtebene
• forschungspragmatische Motive wie z. B. die Ersparnis eigener, häufig aufwendiger
experimenteller Studien
• Erklärung von abweichenden oder auch widersprüchlichen Ergebnissen in
Einzelstudien durch die Analyse von Drittvariableneffekten
1. Erklären Sie den Begriff „Sphärizität“.
1. „Sphärizität“ meint die Varianzheterogenität bei wiederholten Messungen. Die Differenzen
zwischen den Messergebnissen sollten einen gewissen Grad an Homogenität aufweisen.
2. Nennen Sie das Ziel der Verlaufsdatenanalysen.
2. Verlaufsdatenanalysen modellieren die Eintrittswahrscheinlichkeiten und beeinflussende
Faktoren von Ereignissen im Zeitverlauf.
3. Was versteht man unter der „Hazard-Rate“, was unter der „Hazard-Ratio“? Vergleichen
Sie die „Hazard-Ratio“ mit dem „relativen Risiko“ (Kapitel 5). Was fällt auf?
3. Die „Hazard-Rate“ gibt die Eintrittswahrscheinlichkeit eines Ereignisses in einem genau
bestimmten Zeitabschnitt an. Die „Hazard-Ratio“ ist das Verhältnis dieser Eintritts-
wahrscheinlichkeiten bei zu vergleichenden Gruppen – damit entspricht der Kennwert etwa
dem relativen Risiko, das Ihnen aus der Analyse von Querschnittsdaten bekannt ist. Das
Eintrittsrisiko, „Hazard“, wird als ein Vielfaches der Vergleichsgruppe abgebildet.
4. Nennen Sie Beispiele, die gut mit der Verlaufsdatenanalyse untersucht werden können.
4. prinzipiell alle Fragestellungen, bei denen ein genau angebbares Ereignis im Zeitverlauf
untersucht wird (ungeeignet nur für schleichende Entwicklungen, z. B. Wachstums- und
Zerfallsprozesse); in der Psychologie könnte z. B. der Eintritt einer Störung im Lebensverlauf
oder der Zeitpunkt der Entlassung aus einer Behandlung interessieren.
1. Erklären Sie, wie sich wissenschaftliche Evaluationsmethoden von allgemeinen
Bewertungen unterscheiden.
1. Während allgemeine Bewertungen subjektiv sind, sind wissenschaftliche
Evaluationsmethoden systematisch, nach wissenschaftlichen Kriterien ausgerichtet und somit
prinzipiell objektiv nachprüfbar. Zur Evaluation finden die Methoden der empirischen
Sozialforschung in Abgrenzung zu subjektiv gewonnen Bewertungen Anwendung.
2. Grenzen Sie kriterienbasierte von systemischen Evaluationsansätzen ab.
2. Kriterienbasierte Evaluationen fokussieren auf einen bestimmten Aspekt des zu evaluierenden
Gegenstandes (z. B. auf die Effizienz einer eingeführten Maßnahme). Systemische
Evaluationsansätze verfolgen hingegen den Anspruch, einzelne Kriterien, das Umfeld und die
chronologischen Abschnitte eines zu evaluierenden Prozesses zu integrieren.
Last changed4 months ago