1. Welche 5 Schritte sind im Rahmen der Skalierung bei der Neukonzeption einer psychologi- schen Skala nacheinander durchzuführen?
1. Sammlung geeigneter Items;
2. Umpolung/Umformung von Items;
3. Pretest;
4. Itemanalyse (dabei Faktorenanalyse und Reliabilitätsanalyse; auch Trennschärfen- und Itemschwie- rigkeitsanalysen);
5. Bildung der Gesamtskala und Score-Berechnung (deskriptive Statistik)
Was versteht man unter einer Explorativen Faktorenanalyse (EFA)?
multivariates Analyseverfahren zur Erkennung von Strukturen in großen Variablensets
Welche beiden Hauptziele verfolgt die EFA?
Ziel 1 der EFA: Strukturierung: Identifikation von Gruppen von Variablen, die hoch miteinan- der korreliert sind und Trennung dieser von weniger korrelierten Gruppen;
Ziel 2 der EFA: Datenreduktion: Ermittlung von Faktorwerten zusätzlich zur Strukturierung, die sich anstelle der Originalwerte verwenden lassen
Wie kann man die EFA im Rahmen der Skalierung bei der Neukonzeption einer psychologi- schen Skala nutzen?
Untersuchung der Anzahl relevanter latenter Faktoren aus den erhobenen Daten, um die An- zahl der Dimensionen der neuen Skala zu ermitteln und zu prüfen, ob sie der Anzahl der Di- mensionen des theoretischen/zu messenden Konstrukts entspricht
3. Was versteht man im Rahmen einer EFA unter dem Eigenwert?
Maß der Größe bzw. Bedeutung eines Faktors bei der Beschreibung der beobachteten Zu- sammenhänge; Maßstab für die durch den jeweiligen Faktor erklärte Varianz der Beobach- tungswerte; je größer Eigenwert, desto größere Bedeutung
4. Was prüfen der KMO- und der Bartlett-Test im Rahmen der EFA und warum werden sie durchgeführt?
beide Tests prüfen, – grob gesagt – ob die Daten zur effektiven Durchführung einer EFA ge- eignet sind; wird durchgeführt, um zu erkennen, ob eine EFA sinnvoll durchgeführt werden kann
Wann kann gemäß KMO und bralett eine EFA sinnvoll durchgeführt werden?
wenn 𝐾𝑀𝑂 ≥ .5 und Bartlett-Test signifikant ist (𝑝 < .05)
Die Daten sind für eine explorative Faktorenanalyse (EFA) geeignet (𝐾𝑀𝑂 > .5, Bartlett-Test ist signifikant mit 𝜒2 = 250.251, 𝑑𝑓 = 45, 𝑝 < .01).
6. Was besagt das Kaiser-Kriterium im Rahmen einer EFA?
Anzahl extrahierter Faktoren gleich der Zahl der Faktoren mit Eigenwerten > 1
Welches Problem ergibt sich bei der Anwendung des Kaiser-Kriteriums bei der Bestimmung der Zahl relevanter Faktoren?
Problem der Überschätzung relevanter Faktoren mit diesem Verfahren (es werden zu viele Faktoren extrahiert und als relevant betrachtet; v.a. wenn viele Faktoren Eigenwerte von knapp über 1 aufweisen und einzelne Faktoren deutlich darüber liegen), daher zudem Scree- Test durchführen
Faktoren 1 bis 4, da diese Eigenwerte > 1 aufweisen
8. Was besagt der Scree-Tests im Rahmen einer EFA? Welchen wesentlichen Nachteil hat dieses Verfahren (bitte kurz erläutern)?
Anordnung der Eigenwerte in Diagramm in absteigender Reihenfolge, alle Faktoren bis zum Knick (d.h. vor dem Knick) sind zu extrahieren
9. Was stellt ein Scree-Plot dar?
Anordnung der Eigenwerte in Diagramm in absteigender Reihenfolge, Verlauf der Eigenwerte in absteigender Reihenfolge
Wie ist ein Scree-Plot aufgebaut?
zweidimensionales Diagramm; x-Achse: Nummer des Faktors (in aufsteigender Reihenfolge, beginnend bei Faktor 1); y-Achse: Höhe des Eigenwerts des jeweiligen Faktors; dabei sind die Faktoren so sortiert, dass die Eigenwerte mit zunehmender Faktornummer abnehmen; Ver- bindung der Datenpunkte durch Linien
relativ schwieriger Fall, da „Knick“ im Eigenwertverlaufsdiagramm nicht sehr deutlich ist; je- doch noch wahrnehmbarer „Knick“ bei Faktor 2 (und bei Faktor 7; dieser wird nicht berück- sichtigt, da Faktor 6 und 7 Eigenwerte unter 1 aufweisen und damit nach Kaiser-Kriterium keine zu extrahierenden Faktoren darstellen); nach Scree-Test sind alle Faktoren bis zum „Knick“ zu extrahieren, d.h. nur Faktor 1 ist zu extrahieren, die Faktorenanalyse liefert damit nur einen Faktor;
Der Scree-Test zeigte, dass nur der Faktor 1 vor dem „Knick“ im Scree-Plot liegt. Daher ist nur dieser eine Faktor aus der Faktoranalyse zu extrahieren.
a) Was stellt diese Tabelle dar?
Was bedeuten die jeweiligen Zahlen in dieser Tabelle?
b) Der zugehörige Wert des zweiten Items ist negativ (-.378). Was bedeutet dies aus inhaltli- cher Sicht?
c) Angenommen, mit dieser Skala wird ein psychologisches Konstrukt gemessen. Was ist hier- nach unbedingt zu tun, bevor man den Score dieser Skala ermittelt (bitte die Schritte auch begründen)?
a) die Faktorladungen der einzelnen Items der Skala (mit Nennung ihres Wordings) auf den ge- meinsamen Faktor 1
Faktorladungen; geben an, wie stark das jeweilige Items mit dem Faktor zusammenhängt und welcher Art (positiv oder negativ) dieser Zusammenhang ist
b) Items 2 hängt negativ mit dem Faktor zusammen: eine höhere Ausprägung in der Antwort bei Item 2 führt zu einer geringeren Ausprägung des Wertes des Faktors 1; die Stärke dieser Faktorladung ist recht gering (wendet man die strengere Regel an, wonach Items aus der Skala zu eliminieren sind bei |𝜆| > .4, dann wäre dieses Items aus in der Skala wegzulassen)
c) 1) ggf. Items mit zu geringer Faktorladung aus der Skala eliminieren (typische Grenze ist hier |𝜆| > .4 oder . 3; wenn die strengere Regel (|𝜆| > .4) angewendet wird, dann sind die Items 2 und 10 aus der Skala zu eliminieren); (2) alle negativ ladenden Items sind umzukodieren, so- fern es aus inhaltlicher Sicht zutreffend ist und diese Items „das Gegenteil“ messen im Ver- gleich zu den positiv ladenden Items; falls sie aus inhaltlicher Sicht nicht „das Gegenteil“ mes- sen, sind sie aus der Skala zu eliminieren
Was versteht man unter Cronbachs Alpha?
Welche zwei großen Nachteile besitzt diese Kennziffer?
Bitte geben Sie an, wie die Höhe des Cronbach-Alpha-Wertes zu interpretieren ist (gemäß George & Mallery, 2016).
Maß für die interne Konsistenz einer Skala, bezeichnet das Ausmaß, in dem die Items einer Skala miteinander in Beziehung stehen
Erwartungswert für Cronbachs Alpha steigt mit zunehmender Anzahl der Items in einer Skala; Kennwert ist nicht unabhängig von der Anzahl der Items einer Skala/von der Länge der Skala; daher sind Fehlinterpretationen bei Vergleichen verschieden langer Skalen möglich; (2) geht von einer Gleichgewichtung der Items zur Bestimmung des latenten Konstrukts aus (diese Annahme ist sehr fraglich, v.a. bei Kurzskalen problematisch)
> .90: excellent; > .80: good; > .70: acceptable; > .60: questionable; > .50: poor; < .50: unacceptable
Was passiert, wenn man eine etablierte Skala aus mehreren Items verwendet, wobei jedes Items in der EFA deutlich auf dem gemeinsamen Faktor lädt (mit Faktorladungen |𝜆| > .78), jedoch ein Item eine negative Faktorladung aufweist, und aus diesen Items ohne vorherige Umkodierung das Cronbachs Alpha ermittelt?
das Cronbachs Alpha wird geringer ausfallen als bei einer adäquaten Umkodierung des nega- tiv ladenden Items vor der Reliabilitätsanalyse
Bitte formulieren Sie das Ergebnis als Text im Rahmen der Darstellung zur Methode/Ergeb- nisse in einem Ergebnisbericht.
Die Analyse der 10-Item-Skala ergab ein Cronbachs Alpha von . 183, was gemäß George und Mallery (2016) als unacceptable zu interpretieren ist; die interne Konsistenz dieser Skala ist damit nicht ausreichend.
b) Kann und sollte der Score aus diesen 10 Items in dieser Form berechnet werden (bitte kurz begründen)?
A) mindestens ein Item der 10-Item-Skala ist im Vergleich zu den übrigen Items revers kodiert, d.h. misst in der Richtung anders als die übrigen Items (geringere Ausprägung des Items hängt mit höherer Ausprägung des Konstrukts zusammen, während die übrigen Items mit hö- herer Ausprägung des Items mit höherer Ausprägung des Konstrukts zusammenhängen); da- her misst das revers codierte Items anders als die übrigen Items und die interne Konsistenz der Skala (Cronbachs Alpha ist ein Maß dieser internen Konsistenz) wird reduziert
B) nein, denn in dieser Form ist die Skala bzgl. der internen Konsistenz nach George und Mallery (2016) als unacceptable zu betrachten
Ist es sinnvoll, vor der Score-Berechnung ein Item aus der 5-Item-Skala zu eliminieren (bitte kurz begründen und Vor- und Nachteil des (Nicht-)Eliminierens kurz erläutern)?
Spalte gibt je Item an, wie das Cronbachs Alpha ausfällt, wenn das jeweilige Item aus der Skala eliminiert würde; Alpha würde von .774 bei der 5-Item-Skala steigen auf .838, wenn das Item V1_u eliminiert würde und die 4-Item-Skala betrachtet würde; damit wäre eine Steige- rung der internen Konsistenz der Skala möglich, wenn das Item V1_u nicht in die Skala aufge- nommen würde; ebenso verhält es sich mit dem Item V3: hier wäre eine geringfügige Steige- rung der internen Konsistenz auf .786 zu erreichen; bei den übrigen Items verringerte sich die interne Konsistenz der Skala, sobald man das jeweilige Itens aus der Skala wegließe (auf .735 bei Items V2, auf .640 bei Item V4, auf .655 bei Item V5)
ja, denn die 4-Item-Skala weist dann mit einem Alpha von .838 eine gute statt nur akzeptable interne Konsistenz auf (gemäß George & Mallery, 2016); jedoch ist zu bedenken, dass durch die Verkürzung der Skala die Fehler aller Items um den wahren Wert gemäß der Idee der klassischen Testtheorie steigen, was jedoch bei der Reduzierung der Skala um 1 Item von 5 auf 4 Items weniger ins Gewicht fällt
Erläutern Sie zwei Möglichkeiten der Score-Ermittlung im Rahmen der Skalierung an einem selbstgewählten Beispiel.
a) Mittelwertsberechnung: Wenn z.B. die Extraversion mit 5 Items auf einer Antwortskala von 1 bis 5 gemessen wurde (angenommen, kein Item ist revers kodiert; alle Items weisen eine akzeptable interne Konsistenz auf), können die gemessenen Werte der 5 Items pro Pro- band aggregiert werden, indem aus ihnen der Mittelwert gebildet wird; Vorteil: der Score liegt dann immer innerhalb der ursprünglichen Antwortskala von 1 bis 5 und damit recht leicht mit den Verankerungen der Antwortskala zu interpretieren;
(b) Summierung: berech- net man statt des Mittelwerts die Summe aller Einzelwerte aus der Skala zu a), dann erhält man den Summen-Score; Nachteil: der Wert liegt dann nicht mehr klar interpretierbar inner- halb der ursprünglichen Antwortskala von 1 bis 5, sondern weist einen Wertebereich von (5*1=)5 bis (5*5=)25 auf; Probleme bei evtl. fehlenden Werten im Datensatz, die dazu füh- ren, dass der Summenscore quasi unvollständig ist
a) Mit welchem Verfahren kann geprüft werden, ob sich die Varianzen zweier Verteilungen un- terscheiden?
t-Test für unabhängige Stichproben
vergleicht Mittelwerte zwischen zwei Gruppen, nicht Varianzen
Mann-Whitney-Test
(vergleicht Unterschiede in der zentralen Tendenz (Mediane) zwi- schen zwei Gruppen, nicht Varianzen)
ANCOVA
(vergleicht Mittelwerte zwischen zwei oder mehr Gruppen, nicht Varianzen)
Anova
vergleicht Mittelwerte metrischer Variablen zwischen zwei oder mehr Gruppen,
nicht Häufigkeitsverteilungen nominaler oder ordinaler Variablen)
lineare Regressionsanalyse
für Zusammenhangsanalyse
t-Test bei unabhängigen Stichproben
vergleicht Mittelwerte metrischer Variablen zwi schen zwei oder mehr Gruppen, nicht Häufigkeitsverteilungen nominaler oder ordinaler VariAblen
Levene-Test
(prüft Gleichheit der Varianzen, nicht der Mittelwerte zwischen den Gruppen)
t-Test bei einer Stichprobe
kann nur eine Stichprobe untersuchen, in der Aufgabe sind zwei)
Shapiro-Wilk-Test/K-S-Test
Normalverteilung in der abhängigen metrischen Variablen vorliegt, um mit ihr einen t-Test zu berechnen, kann welches Verfahren verwendet werden.
h) Wenn ermittelt werden soll, ob sich in einer Stichprobe die Probanden gleichmäßig auf die 5 Altersklassen verteilen, kann welches Verfahren verwendet werden.
Chi-Quadrat-Test
Was besagt das Kaiser-Kriterium? Bitte wenden Sie es an und interpretieren Sie auf dieser Basis die Ergebnisse aus der Tabelle „Erklärte Gesamtvarianz“.
Anzahl extrahierter Faktoren gleich der Zahl der Faktoren mit Eigenwerten > 1; „Die Begründung für die Verwendung des Kaiser-Kriteriums liegt darin, dass ein Faktor, dessen Varianzerklärungsanteil über alle Variablen kleiner als eins ist, weniger Varianz erklärt als eine einzelne Variable; denn die Begründung für Varianz einer standardisierten Variablen beträgt ja gerade 1.“
In der EFA weist nur der erste Faktor einen Eigenwert > 1 auf (Eigenwert = 3.959), somit ist gemäß Kaiser-Kriterium nur dieser Faktor aus der EFA zu betrachten.
Nennen Sie drei Beispiele für parametrische Verfahren in der Statistik.
Was kennzeichnet parametrische Verfahren und wann sind sie einsetzbar, was muss man bei ihrem Einsatz beachten?
Verfahren:
t-Test, ANOVA, Korrelationsanalyse mit Pearson-Korrelationskoeffizient
Kennzeichen parametrischer Verfahren:
einsetzbar für intervallskalierte Daten, erfordern Einhaltung bestimmter Prämissen (dies ist vorher zu prüfen);
bei Nichteinhaltung: Nutzung parameterfreie Verfahren (bessere Test- stärke bei Verletzung der Prämissen);
haben höhere Teststärke als parameterfreie Verfahren bei Einhaltung der Prämissen;
Prämisseneinhaltung v.a. wichtig, wenn Verfahren zur Hypo- thesenprüfung verwendet wird (Inferenzstatistik)
Welche Prämissen sind bei einem 𝑡-Test zu beachten, wenn man ihn zur Prüfung von Hypo- thesen einsetzen möchte?
Bitte erläutern Sie die drei Prämissen kurz und erläutern Sie, wie Sie die Einhaltung dieser Prämissen bei der Hypothesentestung jeweils beachten können bzw. was jeweils zu prüfen ist.
Prämissen:
bei 𝑡-Test für unabhängige Stichproben: intervallskalierte Daten, normalverteilte Grundge- samtheiten, Varianzhomogenität der Stichproben; bei 𝑡-Test für abhängige Stichproben: in- tervallskalierte Daten, normalverteilte Messwertdifferenzen der Messwertpaare
Erläuterungen:
(1) intervallskalierte Daten: Daten der AV müssen Datenniveau der Intervallskalierung auf- weisen, nicht nominal- oder ordinalskaliert sein; Prüfung: indem untersucht wird, ob alle Operationen mit den Daten möglich sind, die intervallskalierte Daten aufweisen (=, ≠, >, <
, +, −,∗, ∶);
(2) normalverteilte Grundgesamtheiten: die Ausprägungen der Werte der AV müs- sen in der Population einer Normalverteilung folgen; Prüfung: da dies meist nicht für die Po- pulation möglich ist, wird ersatzweise die Normalverteilung der AV aus den Stichprobenda- ten geprüft, z.B. mit einem K-S-Test oder einem Q-Q-Diagramm ;
(3) Varianzhomogenität der Stichproben: die Varianzen der AV in beiden zu vergleichenden Merkmalsgruppen dürfen sich nicht deutlich voneinander unterscheiden; Prüfung: mittels Levene-Test auf Varianz- gleichheit
Was versteht man unter einem K-S-Test?
statistisches Testverfahren, das prüft, ob eine Variable einer angenommenen Verteilung folgt (vergleicht die Werte einer Variablen mit einer angenommenen Verteilung); kann eingesetzt werden, um zu prüfen, ob eine Variable z.B. normalverteilt ist
Erläutern Sie, was dieser Test untersucht.
prüft, ob eine Variable einer angenommenen Verteilung folgt (vergleicht die Werte einer Va- riablen mit einer angenommenen Verteilung); H0 (Nullhypothese): Verteilung in der Variab- len weicht nicht von angenommener Verteilung ab (weist also die angenommene Verteilung auf); H1 (Alternativhypothese): Verteilung in der Variablen weicht von angenommener Ver- teilung ab (weist sie nicht auf); d.h. wenn 𝑝 < .05: Verteilung in der untersuchten Variable ist signifikant abweichend von der angenommenen Verteilung
Angenommen, Sie erhalten folgendes Ergebnis für einen K-S-Test in SPSS:
Was sagt dieses Ergebnis für die Skala „Allgemeine Selbstwirksamkeitserwartung“ aus?
𝑝 < .01, d.h. Verteilung in der untersuchten Variable „Allgemeine Selbstwirksamkeitserwar- tung“ ist signifikant abweichend von der angenommenen Verteilung, in diesem Falle der Nor- malverteilung; es gilt die Alternativhypothese H1; die Skala „Allgemeine Selbstwirksamkeits- erwartung“ ist damit nicht normalverteilt
Wozu dient ein Q-Q-Diagramm?
Wie entsteht es und wie ist es zu interpretieren?
Q-Q-Diagramm
Wozu?
grafisches statistisches Verfahren zum Vergleich zweier Verteilungen, insbesondere der Ver- teilung in einer Variablen im Vergleich mit einer zu prüfenden Verteilung, z.B. einer Normal- verteilung; das Verfahren kann daher genutzt werden, um grafisch zu prüfen, ob die erhobe- nen Daten einer Variablen einer vermuteten Verteilung entsprechen
Entstehung und Interpretation
auf der x-Achse werden die beobachteten/gemessenen Werte eingetragen; auf der y-Achse werden die erwarteten Werte abgetragen, die sich bei Vorliegen einer zu prüfenden Vertei- lung (z.B. Normalverteilung) bei einem bestimmten Beobachtungswert zeigen müssten; die Diagonale kennzeichnet eine perfekte Passung der Beobachtungswerte mit den Erwartungs- werten; weichen die eingetragenen Datenpunkte (aus jeweiligem Beobachtungswert und Er- wartungswert) deutlich von der Diagonalen ab, entsprechen die Beobachtungswerte nicht der vermuteten Verteilung
Wie interpretieren Sie das folgende Q-Q-Diagramm für die Skala „Allgemeine Selbstwirksam- keitserwartung“?
im Diagramm ersichtlich: die Datenpunkte aus beobachteten und erwarteten Werten liegen eng an der Diagonalen (hier wurde die Normalverteilung als zu prüfende Verteilungsform untersucht), d.h. es kann nach diesem grafischen Analyseverfahren davon ausgegangen wer- den, dass die Daten der Variablen „Allgemeine Selbstwirksamkeitserwartung“ in etwa einer Normalverteilung folgen
Welche Prämissen sind zu prüfen, wenn man die ANOVA zur Prüfung von Hypothesen einset- zen möchte?
keine Ausreißer (z.B. via Boxplots, Streudiagramme; heilbar durch: Eliminierung);
randomi- sierte Gruppenzuordnung (ex-ante festgelegt);
Gruppengröße mind. 20; normalverteilte Grundgesamtheiten (K-S-Test; heilbar durch: Gleichbesetzung der Zellen);
Varianzhomogenität (Levene-Test [in SPSS bei Optionen einstellbar]; heilbar durch: Gleichbesetzung der Zel- len)
Was versteht man unter Homoskedastizität und Heteroskedastizität der Störgrößen?
Was von beiden muss bei einer Regressionsanalyse vorliegen, damit diese effizient durchge- führt werden kann?
Homoskedastizität: Störgroßen haben eine konstante Varianz, d.h. der Vorhersagefehler ist in allen Bereichen der beobachteten Variablen (X) gleich;
Heteroskedastizität: Streuung der Residuen in einer Reihe von Werten der prognostizierten abhängigen Variablen ist nicht kon- stant, d.h. die Störgrößen haben keine konstante Varianz; d.h. der Vorhersagefehler ist in den Bereichen der beobachteten Variablen (X) unterschiedlich
Was muss bei Regressionsanalyse vorliegen?
Homoskedastizität
Liegt Homo- oder Heteroskedastizität in folgender Abbildung vor (x-Achse: Prädiktor; y- Achse: Kriterium)?
Heteroskedastizität (Vorhersagefehler bei kleinen Beobachtungswerten kleiner als bei größe- ren)
Kann bei Heteroskedastizität auf dieser Basis eine effiziente Regressionsanalyse zur Prüfung von Hypothesen durch- geführt werden (bitte kurz begründen)?
nein, Heteroskedastizität bewirkte eine ineffiziente Schätzung im Rahmen der Regressions- analyse und verfälscht den Standardfehler des Regressionskoeffizienten und bewirkt eine un- genaue Schätzung des Konfidenzintervalls der Regressionskoeffizienten
Was versteht man im Rahmen der Regressionsanalyse unter Multikollinearität?
Wie kann sie geprüft werden (bitte kurz erläutern)?
Multikollinearität:
bestehende Abhängigkeit zwischen den UVs
Wie geprüft:
per VIF oder Tolerance-Wert; VIF und Toleranz via Statistiken/Kollinearitätsdiagnose bei Re- gressionen in SPSS; kritisch bei 𝑉𝐼𝐹 > 10 und 𝑇𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑒 < .10 (Bühner & Ziegler 2009, S. 682)
Angenommen, ein Forscher erhält folgende Ergebnisse bei der Regressionsanalyse per SPSS:
Führen Sie mit diesem SPSS-Output eine Multikollinearitätsdiagnostik durch und geben Sie an, inwieweit Multikollinearität hier vorliegt (bitte mit allen hier dargestellten relevanten Kennziffern durchführen), indem Sie einen entsprechenden Text für einen Ergebnisbericht verfassen (mit Angabe der Kennziffern).
Kann die Regressionsanalyse nach diesem Ergebnis effizient durchgeführt werden (bitte die Antwort begründen)?
Die Kollinearitätsdiagnostik ergab Toleranz-Werte von . 999 und VIF-Werte von 1.001. Damit liegen die Toleranz-Werte über der Grenze von . 1 und die VIF-Werte unter der Grenze von 10, sodass von kein Multikollinearität anzunehmen ist.
Die Regressionsanalyse kann damit effizient durchgeführt werden, da keine Multikollinearität vorliegt, d.h. die UVs weisen keine deutliche Abhängigkeit voneinander auf.
Was versteht man unter Dummy-Codierung?
Was ermöglicht sie im Rahmen der Regressionsanalyse?
Verfahren zur Umwandlung einer 𝑘-stufigen kategorialen Variable in 𝑘 − 1 dichotome Vari- ablen (Dichotomie); wird insbesondere im Rahmen Regressionsanalyse genutzt, um mehrstu- fige nominal- oder ordinalskalierte Variablen als Prädiktoren analysieren zu können.
Im Rahmen der Regressionsanalyse:
mehrstufige nominal- oder ordinalskalierte Variablen als Prädiktoren analysieren zu können; alle Problemstellungen der Varianzanalyse können so mittels Regressionsanalyse untersucht werden
Wie kann man die Dummycodierung durchführen (bitte erläutern Sie das Dummy-Codieren an einem selbstge- wählten Beispiel einer geeigneten Variable mit 3 Ausprägungen).
(1) Anzahl der Dummy-Variablen bestimmen, indem die Ausprägungen der zu transformie- renden Variablen um eins vermindert wird; Beispiel: UV in einer experimentellen Studie mit den Ausprägungen Kontrollgruppe, Experimentalgruppe 1 und Experimentalgruppe 2; 3 Aus- prägungen in der UV, d.h. 2 Dummy-Variablen nötig, d.h. Dummy1 und Dummy2;
(2) eine Ausprägung der UV als Baseline festlegen, Beispiel: Kontrollgruppe als Baseline, damit die Ef- fekte der Experimentalanordnungen gegenüber der Kontrollgruppe jeweils ermittelt werden können;
(3) alle Datensätze, die in der UV die Ausprägung der Baseline-Variablen aufweisen, werden mit 0 in allen Dummy-Variablen codiert, im Beispiel: wenn im Datensatz die Kontroll- gruppe vorliegt, erhalten Dummy1 und Dummy2 jeweils den Wert 0;
(4) für jede weitere Ausprägung der UV wird in der jeweiligen Dummy-Variable der Wert 1 und in den übrigen Dummy-Variablen der Wert 0 kodiert; Beispiel: weist die UV den Wert Experimentalgruppe 1 auf, erhält Dummy1 den Wert 1 und Dummy2 den Wert 0;
(5) fortführen bis alle Ausprägun- gen der UV codiert wurden; Beispiel: hat die UV den Wert Experimentalgruppe 2, erhält Dummy1 den Wert 0 und Dummy2 den Wert 1
Ein Forscher möchte in seiner Studie die Abhängigkeit der Stärke des aggressiven Verhaltens von Kindern von der Form der gewalthaltigen Computerspiele, die die Kinder konsumieren, ermitteln. Er will hierzu eine Regressionsanalyse durchführen, da er z.B. auch das Alter (met- risch erfasst in Jahren) und das Geschlecht (männlich, weiblich) als Kontrollvariablen berück- sichtigen möchte. In einer Vorstudie hat er 5 verschiedene Formen der gewalthaltigen Com- puterspiele identifiziert und möchte in seiner Studie in einer Kontrollgruppe keine Konsumie- rung solcher Computerspiele realisieren. Bitte erstellen Sie die zugehörige Dummy-Tabelle.
In einer empirischen Studie hat ein Forscher die Eigenschaft „Klugscheißer“ bei Probanden erfasst, nachdem er vier verschiedene Versuchsbedingungen im Experiment hergestellt hat (1 Kontrollgruppe und 3 Experimentalgruppen). Zudem hat der Forscher das Alter und Ge- schlecht der Probanden erfasst. Folgendes Ergebnis zeigt die SPSS-Kovarianzanalyse:
a) Inwieweit hat die Manipulation einen Einfluss auf die Einschätzung der Eigenschaft „Klug- scheißer“ und inwieweit ist damit die Hypothese des Forschers bestätigt, wonach die Manipulation der Situation die Einschätzung „Klugscheißer“ beeinflusst, verifiziert oder falsifiziert (bitte mit konkreten Angaben aus dem Output belegen und in Form eines for- mulierten Textes für einen Ergebnisbericht aufschreiben)?
b) Wie ist der Einfluss der Kontrollvariablen (auch als Text für einen Ergebnisbericht auf- schreiben)?
A) Die Hypothese ist falsifiziert, denn die Manipulation hat keinen signifikanten Einfluss auf die Einschätzung der Eigenschaft „Klugscheißer“ (𝐹(3, 109) = .317, 𝑝 = .813 nicht signi- fikant).
B) „Alter des Klugscheißers“ kein sign. Einfluss auf die AV, „Geschlecht des Klugscheißers“ mit sign. Einfluss auf die AV;
Die Kontrollvariable „Alter des Klugscheißers“ zeigt keinen signifikanten Einfluss
(𝐹(1, 109) = 2.734, 𝑝 = .101 nicht signifikant), die Kontrollvariable „Geschlecht des Klugscheißers“ zeigt einen signifikanten Einfluss (𝐹(1, 109) = 5.944, 𝑝 = .016).
Angenommen, ein Forscher prüft die Hypothese, wonach ein Informieren über die psycholo- gischen Hintergründe der „Klugscheißerei“ dazu führen, Personen bzgl. ihres „Klugschei- ßerverhaltens“ anders zu beurteilen als ohne diese Intervention (Kontrollgruppe, KG). Der Forscher erarbeitet zwei verschiedene Strategien des Informierens: (1) per Vortrag (Experi- mentalgruppe, EG1), (2) per Vortrag mit einem anschließenden Video eines Beispielfalls (EG2). Der Forscher prüft diese Hypothese nicht mit einer ANOVA sondern mit einer Regres- sionanalyse mittels Dummy-Codierung (die KG ist dabei die baseline-Gruppe).
a) Handelt es sich bei der Hypothese um eine gerichtete oder ungerichtete Hypothese? Ist demnach ein einseitiges oder zweiseitiges Signifikanztesten erforderlich?
b) Inwieweit haben die Interventionen gemäß der Hypothese des Forschers einen signifi- kanten Einfluss (bitte mit konkreten Angaben aus dem Output belegen und in Form eines formulierten Textes für einen Ergebnisbericht aufschreiben und eine Aussage über die Verifikation oder Falsifikation der Hypothese treffen)?
c) Bitte geben Sie die unstandardisierten Regressionskoeffizienten der beiden Dummy-Vari- ablen (EG1_vs_KG und EG2_vs_KG) an.
Was sagen diese beiden Werte inhaltlich aus?
a) ungerichtet (da kein Hinweis in der Hypothese auf die Richtung)
zweiseitig
b) keinen Einfluss, da beide Interventionen gegenüber der Kontrollgruppe keinen sign. Ef- fekt, da 𝑝 mit . 333 und . 492 (zweiseitig) nicht signifikant ist;
Die Regressionsanalyse mit Dummy-Kodierung zeigte keinen signifikanten Effekt der bei- den Dummy-Variablen EG1_vs_KG (𝑇 = −.972, 𝑝 > .05) und EG2_vs_KG (𝑇 = .689, 𝑝 > .05), womit gezeigt wurde, dass die Manipulation keinen signifikanten Einfluss hat (𝑘𝑜𝑟𝑟. 𝑅2 = .01)
c) für EG1_vs_KG: −.206; für EG2_vs_KG: . 128
die Werte zeigen den Mittelwertsunterschied zwischen der EG1 vs. KG und der EG2 vs. KG an, d.h. zwischen der EG1 und der KG beträgt der Mittelwertsunterschied in der „Klugscheißer“-Einschätzung −.206 (in der KG ist die Einschätzung demnach stärker als in der EG1) und zwischen der EG2 und der KG mit . 128 (in der KG ist die „Klugscheißer“- Einstellung geringer als in der EG2)
Was bedeuten die 4 Entscheidung bzw. Fehler?
▪ Sicherheitswahrscheinlichkeit: Wahrscheinlichkeit 1 − 𝛼, die Nullhypothese zu akzeptieren, wenn sie in der Population gilt
▪Teststärke oder Power: Wahrscheinlichkeit
1 − 𝛽, die Alternativhypothese zu akzeptieren, wenn sie in der Population gilt; Fähigkeit eines Tests, einen Effekt zu erkennen, wenn einer vorliegt
▪Irrtumswahrscheinlichkeit oder Fehlerwahrscheinlichkeit 1. Art: Wahrscheinlichkeit 𝛼, die Nullhypothese zu verwerfen. obwohl sie in der Population gilt
▪Fehlerwahrscheinlichkeit 2. Art: Wahrscheinlichkeit 𝛽, die Nullhypothese zu akzeptieren, obwohl sie in der Population nicht gilt
Ancova
Was besagen die Angaben „Kontrastschätzer“ jeweils aus inhaltlicher Sicht?
Sie zeigen, wie groß der Unterschied in der Leistung der Mitarbeiter in den Experimental- gruppen im Vergleich zur Kontrollgruppe (diese entspricht der Referenzkategorie 5) ist (ent- spricht Kontrastschätzer) und wie signifikant dieser Unterschied mit Blick auf die Population ist (ablesbar an p bzw. KI).
a) Inwieweit hat das Training einen Einfluss auf die Leistung der Mitarbeiter und wie signifikant ist das Ergebnis (bitte mit konkreten Angaben aus dem Output belegen und in Form eines formulierten Textes für einen Ergebnisbericht aufschreiben)?
b) Wie ist der Einfluss der Kontrollvariablen (bitte als Text für einen Ergebnisbericht aufschreiben)?
c) Der Forscher erhält zudem folgende Output-Tabelle im Rahmen seiner ANCOVA:
Was ist allein aus dieser Tabelle „Kontrastergebnisse“ über die Wirkung der vier Trainings ge- genüber der Kontrollgruppe zu entnehmen (bitte genau begründen)?
a) Die ANCOVA zeigt, dass das Training eine signifikante Wirkung auf die Leistung der Mitarbei- ter hat (Leistung in EG1 MW=3.21 (SD=1.43), in EG2 MW=2.74 (SD=1.33), in EG3 MW=2.72 (SD=1.61), in EG4 MW=2.90 (SD=1.42) und in KG MW=2.18 (SD=1.44), F(4, 176)=2.871, p=.025, p<.05 signifikant; R2=.07, korr. R2=.033).
b) Alle Kontrollvariablen haben keinen signifikanten Einfluss auf die Leistung (Dauer: F(1, 176)=1.267, p=-.262, p>.05; Geschlecht: F(1, 176)=.141, p=.708, p>.05; Alter: F(1, 176)=1.098, p=.296, p>.05).
c) Sie zeigen, wie groß der Unterschied in der Leistung der Mitarbeiter in den Experimental- gruppen im Vergleich zur Kontrollgruppe (diese entspricht der Referenzkategorie 5) ist (ent- spricht Kontrastschätzer) und wie signifikant dieser Unterschied mit Blick auf die Population ist (ablesbar an p bzw. KI).
In allen Experimentalgruppe (EG1 bis EG4; entsprechen den Niveaus 1 bis 4) ist die Leistung größer als in der Kontrollgruppe (entspricht Niveau 5), dabei sind die Unterschiede unter- schiedlich signifikant. Da von einer Leistungssteigerung durch die Trainings ausgegangen wird, liegen gerichtete Hypothesen vor, sodass einseitig zu testen ist.
EG1 zeigt gegenüber der KG eine signifikant höhere Leistung von 1.028 Einheiten (SE=.329), p_einseitig=.002/2=.001, p<.05).
EG2 zeigt gegenüber der KG eine signifikant höhere Leistung von .557 Einheiten (SE=.316), p_einseitig=.0395, p<.05).
EG3 zeigt gegenüber der KG eine signifikant höhere Leistung von .535 Einheiten (SE=.312), p_einseitig=.0445, p<.05).
EG4 zeigt gegenüber der KG eine signifikant höhere Leistung von .699 Einheiten (SE=.305), p_einseitig=.0115, p<.05).
Was versteht man unter dem Standardfehler (𝑆𝐸)?
entspricht der Standardabweichung der Stichprobenverteilung (nicht: der Häufigkeitsvertei- lung einer Studie!) für den Mittelwert in der Stichprobenverteilung; 𝑆𝐸, S.E. oder 𝑠_𝑒 (stan- dard error), 𝑆𝐸𝑀 (standard error of means), auch Stichprobenfehler genannt, liefert Aussage über die Güte des geschätzten Mittelwertes in der Population (= 𝑀𝑊 aus der Stichproben- verteilung), gibt die Ungenauigkeit an, wenn ein Stichprobenergebnis auf die Population ver- allgemeinert wird; SE quantifiziert den Unterschied zwischen dem aus einer einzelnen Stich- probe geschätzten MW 𝑥̅und dem tatsächlichen, wahren MW 𝜇
Worin besteht der Nachteil, wenn man den 𝑆𝐸 zur Prüfung einer Hypothese – in diesem Falle der Hypothese „Das Geschlecht (𝑆𝑒𝑥) hängt mit der Zufriedenheit zusammen“ – verwendet?
die Stichprobenverteilung weist eine Standardabweichung von 1.211 um den Mittelwert der Stichprobenverteilung von 2.20 auf
keine Festlegung einer Grenze vorhanden, mit der man entscheiden kann, ob die Hypothese falsifiziert oder nicht falsifiziert ist
Was versteht man unter einem Konfidenzintervall? Bitte erläutern Sie es an einem selbstge- wählten Beispiel.
Wertebereich, bei dem wir darauf vertrauen können (konfident sein können), dass er den wahren Wert in der Population mit einer gewissen Wahrscheinlichkeit (der Vertrauenswahr- scheinlichkeit) beinhaltet; Bereich möglicher MW, in dem der wahre MW wahrscheinlich liegt; Beispiel: Erhebung der Depressivität der Deutschen anhand einer repräsentativen Stich- probe; man erhält (fiktive Annahme hier!) aus der Stichprobe von 1.001 Person einen Mittel- wert der Depressivität von 1.56 auf einer Antwortskala von 1 bis 5; ermittelt man aus den Daten z.B. das 95%-Konfidenzintervall mit 95% 𝐶𝐼 [1.40; 1.72], dann heißt es, dass der wahre Mittelwert der Depressivität in der Population mit 95%iger Wahrscheinlichkeit im Be- reich von 1.40 bis 1.72 liegt
a) Die Hypothese ist falsifiziert, denn die Manipulation hat keinen signifikanten Einfluss auf die Einschätzung der Eigenschaft „Klugscheißer“ (𝐹(3, 109) = .317, 𝑝 = .813 nicht signi- fikant).
b) „Alter des Klugscheißers“ kein sign. Einfluss auf die AV, „Geschlecht des Klugscheißers“ mit sign. Einfluss auf die AV;
12. Angenommen, ein Forscher prüft die Hypothese, wonach ein Informieren über die psycholo- gischen Hintergründe der „Klugscheißerei“ dazu führen, Personen bzgl. ihres „Klugschei- ßerverhaltens“ anders zu beurteilen als ohne diese Intervention (Kontrollgruppe, KG). Der Forscher erarbeitet zwei verschiedene Strategien des Informierens: (1) per Vortrag (Experi- mentalgruppe, EG1), (2) per Vortrag mit einem anschließenden Video eines Beispielfalls (EG2). Der Forscher prüft diese Hypothese nicht mit einer ANOVA sondern mit einer Regres- sionanalyse mittels Dummy-Codierung (die KG ist dabei die baseline-Gruppe).
c) Bitte geben Sie die unstandardisierten Regressionskoeffizienten der beiden Dummy-Vari- ablen (EG1_vs_KG und EG2_vs_KG) an. Was sagen diese beiden Werte inhaltlich aus? Was sagen diese beiden Werte inhaltlich aus?
a) ungerichtet (da kein Hinweis in der Hypothese auf die Richtung), zweiseitig
a) Führen Sie mit diesem SPSS-Output eine Multikollinearitätsdiagnostik durch und geben Sie an, inwieweit Multikollinearität hier vorliegt (bitte mit allen hier dargestellten relevanten Kennziffern durchführen), indem Sie einen entsprechenden Text für einen Ergebnisbericht verfassen (mit Angabe der Kennziffern).
b) Kann die Regressionsanalyse nach diesem Ergebnis effizient durchgeführt werden (bitte die Antwort begründen)?
a) Die Kollinearitätsdiagnostik ergab Toleranz-Werte von . 999 und VIF-Werte von 1.001. Damit liegen die Toleranz-Werte über der Grenze von . 1 und die VIF-Werte unter der Grenze von 10, sodass von kein Multikollinearität anzunehmen ist.
b) Die Regressionsanalyse kann damit effizient durchgeführt werden, da keine Multikollinearität vorliegt, d.h. die UVs weisen keine deutliche Abhängigkeit voneinander auf.
5. Angenommen aus einer repräsentativen Stichprobenerhebung ergibt sich folgendes Ergeb- nis: 𝑀𝑊 = 3.45, 95% 𝐶𝐼 [3.10; 3.80]. Wie ist dieses Ergebnis zu interpretieren?
der wahre Mittelwert des gemessenen Konstrukts in der Population liegt mit 95%iger Wahr- scheinlichkeit im Bereich von 3.10 bis 3.80, ist mit 95%iger Wahrscheinlichkeit somit nicht 0
6. In einer repräsentativen Stichprobenerhebung ergibt sich für die ermittelte Korrelation
𝑟 nach Pearson ein 90% 𝐶𝐼 [.17; .39]. Wie groß ist demnach die ermittelte Korrelation 𝑟? Bitte den Rechenweg darstellen.
Rechenweg: (.17 + .39)/2 = .28; die ermittelte Korrelation beträgt 𝑟 = .28
a) Inwieweit ist die Hypothese des Forschers zur Wirksamkeit der Intervention falsifiziert oder nicht falsifiziert (bitte mit konkreten Angaben aus dem Output belegen und in Form eines for- mulierten Textes für einen Ergebnisbericht aufschreiben)?
a) Die Hypothese ist falsifiziert, denn es gibt zwar einen sign. Unterschied im WE zwischen den Zeitunkten t0 und t1 mit MW-Diff=.76 mit 96%-CI[.55225; .96775] (die Null ist im CI nicht ent- halten, sodass mit einer 95%igen Wahrscheinlichkeit auch in der Population mit einem Mittel- wertsunterschied ungleich 0 zu rechnen ist), allerding ist WE_t0=3.211 (SD=.6114) und WE_t1=2.451 (SD=.87075), sodass es sich eine signifikante Verringerung – statt Erhöhung – des WE ergeben hat.
a) Bitte ermitteln Sie die Itemschwierigkeiten für beide Items und geben Sie diese an
b) Wie ist die Itemschwierigkeit der beiden Items im Rahmen der Skalierung einzuschätzen?
a) Karrieremöglichkeiten: N=1+8+12+35+6=62, Umkodieren der Antwortstufen: -2→0, -1→1 usw., MW=(1*0+8*1+12*2+35*3+6*4)/(1+8+12+35+6)=161/62=2.5968; Anwendung der For- mel der Itemschwierigkeit, x_max=4; pi=(161/62)/4=.6492
Arbeiten im Ausland: N=4+43+9+4+2=62, Umkodieren der Antwortstufen: -2→0, -1→1 usw., MW=(4*0+43*1+9*2+4*3+2*4)/62=81/62=1.3065; Anwendung der Formel der Itemschwie- rigkeit, x_max=4; pi=(81/62)/4=.3266
b) Für beide Items liegen die pi-Werte im Bereich mittlerer Itemschwierigkeiten, denn sie sind >.20 und kleiner .80 (nach Bühner 2011)
a) Inwieweit ist die Hypothese des Forschers falsifiziert oder nicht falsifiziert (bitte mit konkreten Angaben aus dem Output belegen und in Form eines formulierten Textes für einen Ergebnis- bericht aufschreiben)?
b) Wie ist der Einfluss der beiden Kontrollvariablen (bitte als Text für einen Ergebnisbericht auf- schreiben)?
c) 1. Was besagen die Parameter [Gruppe=EG1], [Gruppe=EG2], [Gruppe=EG3], [Gruppe=EG4] und
[Gruppe=EG5] aus der Tabelle „Parameterschätzer“ aus inhaltlicher Sicht?
c) 2. Inwieweit sind diese fünf Parameter signifikant (bitte dazu die relevanten konkreten Ergeb- nisse des Outputs zur Begründung angeben) und was bedeutet das aus inhaltlicher Sicht?
a) Die Hypothese ist falsifiziert, denn der Einfluss der Gruppe ist nicht signifikant (F(5,237)=.399, p>.05).
b) Die Kontrollvariablen Alter und Geschlecht haben auch keinen sign. Einfluss auf die Reputation (Alter: F(1,237)=.307, p>.05; Geschlecht. (F(1,237)=.281, p>.05).
c) 2. Alle diese Parameter sind nicht signifikant (p sind allesamt >.05), d.h. die Experimentalgruppen weisen gegenüber der KG keinen sign. Unterschied in der Reputation auf. Die Intervention scheint somit nicht wirksam gewesen zu sein.
1. a) In einer repräsentativen Stichprobenerhebung im Rahmen einer explanativen Studie ergibt sich für die ermittelte Korrelation 𝑟 nach Pearson ein 90% 𝐶𝐼 [.17; .39]. Die Hypothese die- ser Studie besagte, dass es einen signifikanten positiven Zusammenhang zwischen den bei- den korrelierten Größen gibt. Ist hiernach die Hypothese falsifiziert oder nicht falsifiziert (bitte begründen Sie Ihre Antwort)? Was besagt das ermittelte Konfidenzintervall aus inhaltli- cher Sicht in dieser Studie?
b) Was besagt das ermittelte Konfidenzintervall aus inhaltlicher Sicht in dieser Studie?
a) nicht falsifiziert, da 0 nicht Bestandteil des CI ist, somit ist mit 90%iger Wahrscheinlichkeit ausgeschlossen, dass die Korrelation in der Population 𝑟 = 0 ist, was für keinen Zusammen- hang stünde, daher ist mit 90%iger Wahrscheinlichkeit von einer (positiven) Korrelation in der Population auszugehen
b) der wahre Mittelwert der Korrelation in der Population liegt mit 90%iger Wahrscheinlichkeit im Bereich von . 17 bis . 39, ist mit 90%iger Wahrscheinlichkeit somit nicht 0
2. In einer Studie wird der Unterschied in der Einstellung zu einem Produkt zwischen Männern und Frauen empirisch untersucht. Dazu werden zwei Konfidenzintervalle für die Mittelwertsdifferenz von 𝑀𝑊𝐷𝑖𝑓𝑓 = −1.49 zwischen der Einstellung der Männer und der Frauen 𝑀−𝐹 ,mit ermittelt mit 𝐶𝐼1 [−1.94; −1.04] und 𝐶𝐼1 [−2.99; .01].
a) Welches der beiden Konfidenzintervalle ist das 90% 𝐶𝐼 und welches eher das 99% 𝐶𝐼 (bitte begründen Sie Ihre Antwort)?
b) Inwieweit ist nach diesen Ergebnissen aus dem 𝐶𝐼1 und dem 𝐶𝐼2 die Hypothese, wonach Männer eine positivere Einstellung gegenüber dem Produkt haben als Frauen haben, nicht falsifiziert oder falsifiziert (bitte begründen Sie Ihre Antwort)?
c) Angenommen der Forscher hätte die Hypothese untersucht, wonach Frauen eine positi- vere Einstellung gegenüber dem Produkt haben als Männer. Inwieweit wäre diese Hypothese auf der Basis der 𝐶𝐼1 und dem 𝐶𝐼2 nicht falsifiziert oder falsifiziert?
a) 𝐶𝐼2 ist eher das 99% 𝐶𝐼, da es eine größere Spannweite aufweist und 99% aller Fälle ab- deckt; 𝐶𝐼2 ist eher das 90% 𝐶𝐼 aufgrund der kleineren Spannweite
b) gemäß 90% 𝐶𝐼 ist die Hypothese falsifiziert, da die Mittelwertsdifferenz zwischen Männern und Frauen mit 90%iger Wahrscheinlichkeit in der Population negativ (= Frauen habe positi- vere Einstellung als Männer) und zugleich nicht 0 (würde für keinen Unterschied zwischen Männern und Frauen bzgl. der Einstellung sprechen), Richtung der Hypothese stimmt nicht; gemäß 99% 𝐶𝐼 ist die Hypothese auch falsifiziert, da die Mittelwertsdifferenz zwischen Män- nern und Frauen mit 99%iger Wahrscheinlichkeit in der Population zwischen −2.99 und +.01 liegt und damit die 0 (diese 0 steht für keinen Unterschied zwischen Männern und Frauen bzgl. der Einstellung) nicht ausgeschlossen werden kann, womit die Hypothese zu verwerfen ist
c)gemäß 90% 𝐶𝐼 ist die Hypothese nicht falsifiziert, da die Mittelwertsdifferenz zwischen Män- nern und Frauen mit 90%iger Wahrscheinlichkeit in der Population negativ (= Frauen habe positivere Einstellung als Männer) und zugleich nicht 0 (würde für keinen Unterschied zwi- schen Männern und Frauen bzgl. der Einstellung sprechen);
gemäß 99% 𝐶𝐼 ist die Hypothese falsifiziert, da die Mittelwertsdifferenz zwischen Männern und Frauen mit 99%iger Wahrscheinlichkeit in der Population zwischen −2.99 und +.01 liegt und damit die 0 (diese 0 steht für keinen Unterschied zwischen Männern und Frauen bzgl. der Einstellung) nicht ausgeschlossen werden kann, womit die Hypothese zu verwerfen ist
5. Ein Forscher stellt die begründete Hypothese auf: Je stärker der Konsum gewalthaltiger Com- puterspiele durch Kinder ist, desto stärker ist deren aggressives Verhalten. Der Forscher setzt die maximale Irrtumswahrscheinlichkeit zum Hypothesentesten mit 𝛼 = .05 fest.
a) Bitte stellen Sie für diese Hypothese die Nullhypothese und die Alternativhypothese auf
und geben Sie an, bei welchen Ergebnissen in einer empirischen Studie, in der man die Stärke
des Konsums gewalthaltiger Computerspiele mit 𝑆𝐾𝐶 und die Stärke des aggressiven Verhal-
tens mit 𝐴𝐺𝑉 misst, diese Hypothesen jeweils gelten.
b) Handelt es sich bei dieser Hypothese um eine gerichtete oder ungerichtete Hypothese (bitte begründen)?
c) Ist diese Hypothese mit einem einseitigen oder zweiseitigen Signifikanztest zu prüfen (bitte kurz begründen)?
d) Angenommen, der Forscher erhält aus einer statischen Analyse folgendes Ergebnis: Pear- sons 𝑟 = −.12, 𝑝 = .001. Ist die Hypothese nicht falsifiziert oder falsifiziert (bitte begrün- den)?
e) Angenommen, der Forscher erhält aus einer statischen Analyse folgendes Ergebnis: Pear- sons 𝑟 = .12, 𝑝 = .001. Ist die Hypothese nicht falsifiziert oder falsifiziert (bitte begrün- den)?
f) Angenommen, der Forscher erhält aus einer statischen Analyse folgendes Ergebnis: Pear- sons 𝑟 = .12, 𝑝 = .02. Ist die Hypothese nicht falsifiziert oder falsifiziert (bitte begründen)?
g) Angenommen, der Forscher erhält aus einer statischen Analyse folgendes Ergebnis: Pear- sons 𝑟 = .12, 𝑝 = .05. Ist die Hypothese nicht falsifiziert oder falsifiziert (bitte begründen)?
h) Angenommen, der Forscher erhält aus einer statischen Analyse folgendes Ergebnis: Pear- sons 𝑟 = .12, 𝑝 = .051. Ist die Hypothese nicht falsifiziert oder falsifiziert (bitte begrün- den)?
a)H0 (Nullhyp.): 𝑟 ≤ 0, H1 (Alternativhyp.): 𝑟 > 0
b) gerichtet, da Richtung des Zusammenhangs (in diesem Falle positiv) in der Hyp. angegeben wird
c) einseitig, da gerichtete Hyp.
d) falsifiziert, da 𝑟 < 0
e) nicht falsifiziert, da 𝑟 > 0 und 𝑝 < .05
f) nicht falsifiziert, da 𝑟 > 0 und 𝑝 < .05
g)nicht falsifiziert, da 𝑟 > 0 und 𝑝 = .05
h) falsifiziert, da 𝑟 > 0 und 𝑝 > .05
7. Was versteht man unter dem Fehler erster Art (bitte erläutern Sie diesen an einem selbstge- wählten Beispiel)?
8. Was versteht man unter dem Fehler zweiter Art (bitte erläutern Sie diesen an einem selbst- gewählten Beispiel)?
Wenn wir eine H1 annehmen (weil z.B. 𝑝 ≤ .05), obwohl in der Population kein Effekt be- steht (= eigentlich die H0 gilt), machen wir einen Fehler (begehen einen Irrtum), den soge- nannten Alpha-Fehler; Beispiel: in Studie wird Korrelation zwischen Konsum gewalthaltiger Computerspiele und aggressivem Verhalten von Kindern von 𝑟 = .13 mit 𝑝 = .04 bei 𝛼 = .05 ermittelt und die Hypothese, wonach ein Zusammenhang besteht, nicht verworfen, obwohl in der Population tatsächlich kein Zusammenhang vorhanden ist
Wie kann man diesen Fehler minimieren?
kleineres 𝛼 festlegen (z.B. statt . 05 eher . 01 oder . 001)
Wenn wir eine H0 beibehalten, obwohl in der Population ein Effekt vorhanden ist (= eigent- lich die H1 gilt), dann machen wir einen Beta-Fehler; Beispiel: in Studie wird Korrelation zwi- schen Konsum gewalthaltiger Computerspiele und aggressivem Verhalten von Kindern von 𝑟 = .13 mit 𝑝 = .06 bei 𝛼 = .05 ermittelt und die Hypothese, wonach ein Zusammenhang besteht, verworfen, obwohl in der Population tatsächlich ein Zusammenhang vorhanden ist Wie kann man diesen Fehler minimieren?
kleineres 𝛽 festlegen
Aufgabe
Ein Forscher führt eine Interventionsstudie zur Verringerung der emotionalen Erschöpfung bei Mitar- beitern durch. Dazu misst er zum Zeitpunkt T0 die emotionale Erschöpfung (EE_Skala_T0), führt die Intervention durch und misst danach zum Zeitpunkt T1 erneut die emotionale Erschöpfung (EE_Skala_T1). Der Forscher stellt die Hypothese auf, wonach sich eine deutliche Verringerung der emotionalen Erschöpfung durch die Intervention zeigt. Er prüft diese Hypothese mittels eines 99%-CI.
Er erhält folgenden SPSS-Output:
b) Der Forscher ermittelt für den Mittelwertsunterschied eine Effektstärke von Cohen’s d=1.04. Inwieweit kann dieser Effekt als klein, mittel oder groß nach Schäfer (2016, S. 183) interpretiert werden?
a)Im T-Test für abhängig Stichproben zeigt sich ein signifikantes Ergebnis bzgl. der Mittelwerts- differenz der emotionalen Erschöpfung von T0 zu T1 (EE_t0: MW=3.211, SD=.611, EE_t1: MW=2.451, SD=.871, MW-Differenz (t0 – t1) = .76, d.h. entspricht der Richtung der Hypothese, wonach eine Verringerung der EE vermutet wurde; MW-Differenz=.76 mit 99%-CI [.48294; 1.03706], d.h. die Null (entspricht keinem Mittelwertsunterschied) und auch kein negativer Wert (entspricht einer Erhöhung der EE von t0 zu t1) sind enthalten, somit sign.). Damit ist die Hypothese nicht falsifiziert.
b) Großer Effekt
Ein Forscher führt eine Interventionsstudie zur Steigerung des Work Engagement durch. Dazu werden zufällig drei Gruppen gebildet. In der Experimentalgruppe 1 (EG1) führt der Forscher ein Training mit den Führungskräften zur respektvollen Führung, in der Experimentalgruppe 2 (EG2) zur transformati- onalen Führung durch. In der Kontrollgruppe (KG) erhalten die Führungskräfte kein Training. Der For- scher misst nach der Intervention in allen drei Gruppen das Work Engagement der Mitarbeiter dieser Führungskräfte. Er stellt die Hypothese auf, wonach in den beiden Experimentalgruppen ein höheres Work Engagement bei den Mitarbeitern herrscht als in der Kontrollgruppe und somit die Trainings wirksam sind. Die maximale Irrtumswahrscheinlichkeit legt der Forscher aus 5% fest.
a) Inwieweit ist die Hypothese des Forschers zur Wirksamkeit der Trainings falsifiziert oder nicht falsifiziert (bitte mit konkreten Angaben aus dem Output belegen und in Form eines formulier- ten Textes für einen Ergebnisbericht aufschreiben)?
b) Um wie viele Einheiten auf der Antwortskala ist das Work Engagement im Durchschnitt in den
Experimentalgruppen höher bzw. niedriger als in der Kontrollgruppe?
c) Wie ist der Einfluss der berücksichtigten Kontrollvariablen Autonomie und Feedback auf das
Work Engagement in dieser Studie (bitte als Text für einen Ergebnisbericht aufschreiben)?
d) Mit welchem statistischen Verfahren hätte der Forscher diese Hypothesenprüfung mit Berück- sichtigung von metrischen bzw. dichotomen Kontrollvariablen auf ähnliche Weise umsetzen können?
A) In der multiplen linearen Regressionsanalyse zeigt sich, dass Dummy1 (diese Dummy-Variable kontrastiert die Training1-Gruppe und die Kontrollgruppe) keinen signifikanten Einfluss auf das Work Engagement hat (B=.290, Beta=.233, T=1.532, p_einseitig=.133/2= .0665, p>.05 nicht signifikant). Da für die Dummy1 B=.290 und damit B>0 ist, hat die Trainig1-Gruppe eine um .290 Einheiten höhere Leistung als die Kontrollgruppe, was der Richtung der Hypothese ent- spricht. Dennoch ist aufgrund fehlender Signifikanz dieser Teil der Hypothese falsifiziert, also kein signifikant höheres WE in der Training1-Gruppe als in der KG.
Zudem zeigt sich, dass Dummy2 (diese Dummy-Variable kontrastiert die Training2-Gruppe und die Kontrollgruppe) einen signifikanten Einfluss auf das Work Engagement hat (B=.452, Beta=.342, T=2.171, p_einseitig=.036/2= .018, p<.05 signifikant). Da für die Dummy2 B=.452 und damit B>0 ist, hat die Trainig2-Gruppe eine um .452 Einheiten höhere Leistung als die Kontrollgruppe, was der Richtung der Hypothese entspricht. Somit ist dieser Teil der Hypo- these nicht falsifiziert, also ein signifikant höheres WE in der Training2-Gruppe als in der KG. Insgesamt ist also die Hypothese des Forschers teilweise falsifiziert (R2=.374, korr. R2=.286).
B) in der EG1 um .290 Einheiten höher als in der KG, in der EG2 um .452 Einheiten höher als in der KG
C) Autonomie hat einen sign. positiven Einfluss auf das Work Engagement (Beta=.455, T=3.555, p_zweiseitig=.001, p<.05 signifikant). Feedback hingegen hat auch einen positiven, aber nicht signifikanten Einfluss auf das Work Engagement (Beta=.121, T=.791, p_zweiseitig=.433, p>.05 nicht signifikant).
D) einfaktorielle ANCOVA mit Signifikanztest
Weiter mit Arbeitsblatt 01 in pdf eBooks
Werte den CHI ^2 aus!
Ergebnisbericht:
Der Chi-Quadrat-Test zeigt keinen sign. Zusammenhang zwischen den beiden Variablen (de- skriptive Statistik: siehe Verteilung in der Kreuztabelle, Inferenzstatistik: F(2)=.930, p=.628, p>.05 nicht signifikant; Kontingenzkoeffizient C=.155). Die Hypothese ist somit falsifiziert.
Werte die ANOVA aus!
Die einfaktorielle ANOVA konnte nicht durchgeführt werden, da in der Gruppe „weiblich“ keine Nor- malverteilung in der Variablen Freude vorlag und pro Gruppe nicht mind. 30 Datensätze vorliegen (N=14, Z=.268, p=.007, p<.05, damit sign. Abweichung von der Normalverteilung; keine Abweichung von der Normalverteilung in der Gruppe männlich: N=15, Z=.194, p=.135, p>.05 nicht signifikant; keine Abweichung von der Normalverteilung in der Gruppe divers: N=10, Z=.171, p=.200, p>.05 nicht signifikant). Daher wurde der parameterfreie H-Test zur Hypothesenprüfung genutzt. Der H-Test zeigt keinen sign. Unterschied in der Freude zwischen den Gruppen mit den drei Ausprägungen des Geschlechts (Mittlerer Rang der Freude: männlich=18.37, weiblich=20.71, divers=21.45, H=.547, df=2, p=.761, p>.05 nicht signifikant). Die Hypothese ist somit falsifiziert.
Z-Standardisierung Aufgabe
Angenommen, du möchtest wissen, ob ein deutscher oder ein französischer Schüler besser in einem Mathetest abgeschnitten hat. Während der deutsche Schüler die Note 2 geschrieben hat, hat der französische Schüler die Note 12 erreicht.
Die vorliegenden Testergebnisse kannst du aus zwei Gründen nicht unmittelbar miteinander vergleichen:
Erstens liegen den Ergebnissen unterschiedliche Bewertungssysteme zugrunde. Während die Notenskala in Deutschland von 1 bis 6 reicht, werden in Frankreich Noten von 0 bis 20 Punkten vergeben, wobei 0 Punkte für eine sehr schlechte Leistung und 20 Punkte für eine sehr gute Leistung stehen. Die Testergebnisse der Schüler wurden also in unterschiedlichen Einheiten gemessen.
Zweitens haben die Schüler nicht exakt denselben Test geschrieben, weshalb sich der Mittelwert und die Streuung der Testergebnisse auch unabhängig von den unterschiedlichen Notenskalen unterscheiden dürften. Um die Leistungen der beiden Schüler objektiv miteinander vergleichen zu können, musst du auch diese Tatsache berücksichtigen.
Last changed2 years ago