Unterscheidung psychologische vs statistische Hypothese
- Psychologisch: Aussagen über Vorgänge innerhalb von Individuen
o Sind and einer Person nicht fehlerfrei messbar
- Statistisch: Aussagen über Vorgänge/Anteile innerhalb von Populationen
o Lassen sich aus psychologischen Hypothesen herleiten und dienen als Hilfsmittel
o Ist die Hilfshypothese gültig(signifikant) -> indirekte Bestätigung psychologischer Hypothesen
Ablauf Analyse
o Rohdaten vs Daten: Daten sind erst auf die Hypothese klassifizierte/transformierte Beobachtungen
o Deskriptive Analyse (Mittelwerte, Standardabweichungen Gruppengrößen)
§ Wenn gerichtete Hypothese daraus schon erste Erkenntnis, ob Hypothesen stimmen können
o Statistischer Test der Hypothese
o Explorative Analysen
Skalenniveaus
o Verhältnisskalen haben ggü Intervallskalen einen natürlichen Nullpunkt
Verschiedene Interaktionsmuster
o Disordinale Interaktion: Umgekehrte Reihenfolge der Mittelwerte eines Faktor bei anderer Ausprägung des Zweiten Faktors
o Ordinale Interaktion: Gleiche Reihenfolge der Werte des einen Faktors in verschiedenen Ausprägungen des anderen Faktors (aber unterschiedlich stark)
Fixed vs Random Factor
o Fixed: Faktorstufen vorher festgelegt
o Random: Zufällige Ausgewählte Faktorstufen
§ In Experimenten untypisch (Höchstens wenn Trials als Faktor aufgenommen werden)
§ Eher in hierarchischen Designs typisch (zb Lehrer)
- Hierarchische Versuchspläne/ nested-Designs
o Idr wenn vollständige Kreuzung der Faktoren nicht möglich ist (jede Faktorstufe mit jeder)
o Ein zufälliger Faktor wird in einen festen eigenistet (also nicht jede Stufe mit jeder)
§ Scheibweise: B(eingenistet) und A (feste Nestvariable) -> B (A) (kontraintuitiv I know)
o Hierachische/nested Pläne sind Unvollständig: die Faktorstufen des eingenisteten Faktor sind nicht über die Faktorstufen des festen Faktors hinweg identisch (vier Lehrer verteilt auf 2 Unterrichtsbedingungen -> AV Schulnote)
§ Dadurch sind Haupteffekte prüfbar aber keine interaktionseffekte
- Zwei Versuchsbedingungen, quantitative AV
o Intervallskalenniveau
§ Between subjects (inter): t- test unabhängige Stichproben
· Mittelwertsdifferenz der Gruppen duch SD
§ Within subjects(intra): t-test abhängige Stichproben
· Teil der Varianz durch Personen Erklärt
· Mittlere Bedingungsdifferenz der Einzelpersonen durch SD
o Ordinalskalenniveau (oder Annahmeverletzung zb. keine Normalverteilung) /nicht parametrisch
§ Between subjects (inter): Mann-Whitney-U-Test
· Vergleich der mittleren Rangplätze der Gruppen
§ Within subjects(intra): Wilcoxon-Test, Vorzeichentest
· Nur wenn größere Differenz in Rangreihung auch Größerer Unterschied interpretierbar Wilcoxon Test
o Sonst Vorzeichentest
· Aufsummierte Differenzen der Bedingungen (über die Personen hinweg aufsummiert, Bei Vorzeichen nur anz. pos u neg Veränderungen) miteinander Vergleichen
- Einfaktorieller Versuchsplan (mehr als 2 Bedingungen), quantitative AV
§ Ziel: vermeiden eines Kumulierten a-Fehlers (würde bei mehreren t-tests passieren)
§ Einfaktorielle Anova
· Ohne Messwiederholung (Varianz = Effektvarianz (zw.Gruppen)+ Fehlervarianz(innh. Gruppen)
· Mit Messwiederholung (Varianz= Effekt+Personen+Fehler)
o Prüfung der Signifikanz immer über den Vergleich von Effekt und Fehlervarianz
· Idr. ein Post-hoc Test zur Lokalisation der Effekte
o Nichtparametrisch/Ordinalskaliert
§ Between-Subjects: Krusal Wallis-Test
§ Within-Subjects: Friedman-Test
· Ähnlich wie U-Test und Wilcoxon
- Mehrfaktorieller Versuchsplan, quantitative AV
§ Ermöglicht Bestimmung von Wechselwirkungen/Interaktionen
§ Benötigt Intervallskalierte Daten (Da Interaktion ordinal nicht gut interpretierbar, tauchen auf und verschwinden je nachdem)
o Kombination von Messwiederholung und nicht Messwiederholungsfaktoren möglich
o Theoretisch unendlich viele Faktoren aber idr nur 2-3
§ Kontrollfaktoren (Lern-,Ermüdungseffekte) als eigene Faktoren mit aufnehmen
· Interaktionseffekte mit UV Einschränkung der Allgemeingültigkeit der Hypothese
· Erhöhung der Power durch zusätzlich erklärte teile der „Fehlervarianz“
o So lang Kontrollvariablen dazu tun bis was signifikantes rauskommt ?
o Paralellisierung im Nachhinein durch Kovariate (Intervallskalierte Variablen welche zwar Erhoben aber nicht ausbalanciert wurde)
§ Einflüsse können Herausgerechnet werden u Fehlervarianz reduziert
§ Aber echte Parallelisierung klar besser
Einfaktorieller Versuchsplan, qualitative AV
- Mehrfaktorieller Versuchsplan, qualitative AV
o Wird idr. nicht gemacht, da keine etablierten Verfahren vorhanden
§ Wenn dann wird statistisch modelliert
Explorative Datenanalyse
- haben fundamental anderen Stellenwert da immer post hoc
o Erhebung ist auch nicht darauf ausgelegt gewesen
o Wenn viele Signifikanztests gerechnet werden muss schon aus Zufall einer signifikant werden
§ also nur Hinweise für weitere Untersuchungen, keine bewährten Hypothesen
- Standardmäßig: Störvariablen, Geschlechts-, Alters-, Bildungseffekte prüfen
- Umgang mit Unplausiblen Werten
o Ausschlusskriterien müssen transparent und vorher festgelegt werden
o Im Zweifel nicht parametrisches Verfahren wählen welches weniger Ausreißer anfällig ist
- Modellierung der Datenstruktur, um Funktionsformen zu finden (Scheinkorrelation, Quadratisch, linear)
Last changeda month ago