Erläutern Sie die Begriffe Hypothese an einem selbstgewählten Beispiel
Eine Hypothese ist eine gesetzesmäßig Aussage, die sich noch nicht bewährt hat
(angenommen z.B. „Wenn man mit Medikament X katastrophierendes Denken abschwächt, dann erleben Personen weniger häufig Panikattacken“). Ab einem bestimmten Bewährungsgrad können Hypothesen zu Gesetzen werden (der Übergang ist fließend).
Wann nutzt man einfaktorielle Pläne mit mehr als zwei Stufen
wenn ALternativerklärungen getestet werden sollen
wenn man lineare bzw nicht lineare effekte der UV untersuchen möchte
eine neue Behandlung gegen eine Kontrollgruppe und die STandard-Behandlung verglichen werden soll
• Welche Faktoren beeinflussen die Höhe der beiden Fehlerwahrscheinlichkeiten? − die Höhe des Signifikanzniveaus α: je kleiner α, desto kleiner ist P(α-Fehlers), aber umso größer ist P(β-Fehlers) − die Größe des tatsächlichen Effekts Δbzw. 𝛿: bei großen Populationseffekten ist P(β-Fehler) geringer
In einer Studie wird die Wirksamkeit eines neuen Medikaments zur Behandlung von Grippe-Symptomen untersucht. Personen geben ihre Symptome an, nehmen das neue Medikament und geben dann einige Tage später erneut die Symptome an. Angenommen, den VPN geht es besser. Können Materialeffekte, Reifungsprozesse und/oder Geschichtseffekte diesen Befund alternativ erklären?
Reifungsprozesse: NAtürliche Abnahme von Symptomen dadurch, dass Körper ja auch natürlich gegen Grippe kämpft
Materialeffekte (Übungseffekt/Konsistenzeffekt): Selbstbericht kann dazu führen, dass man Symptome besser einschätzt als sie eigenltich sind
Geschichtseffekt: Soziale und kulturelle Aspekte die es verbesern
Welche Erwartungen der VPN kann Resultate beeinflussen
– des Untersuchungsziels
– des adäquaten Verhaltens in der Untersuchungssituation
– der Effektivität einzelner Manipulationen (z.B. Placebo-Effekte)
wie lässt sich unhappy randomization verhindern
durch die KOmbination aus Parallelisierung und Randomisierung
-> erst Zwillingspaare finden und dann zufällig EG und KG hinzufügen
durch Blockrandomisierung->Bei der Blockrandomisierung werden Teilnehmer in gleich große Blöcke unterteilt, die nach relevanten Merkmalen (z. B. Alter, Geschlecht oder Schwere der Symptome) sortiert sind. Innerhalb jedes Blocks erfolgt dann eine zufällige Zuweisung zu den Behandlungsgruppen, um eine ausgeglichene Gruppengröße und die Kontrolle von Confoundern zu gewährleisten, wodurch die Vergleichbarkeit der Gruppen erhöht wird.
− 𝑡𝑒𝑚𝑝 ist also eine standardisierte Form von 𝐷𝑁𝑎𝑖v
Erkläre wieso die wissenschaftliche MEthode besser ist als andere
Wissenserwerb beruht auf einer wissenschaftlichen EInstellung
-wissenschaftliche aussagen müssen gewissen Standards genügen
-> Verständlichkeit, logische Konsistenz
wichtig sind valide und replizierbare empirische Befunde
kritische Einstellung gegenüber den eigenen Theorien
-> Alltagstheorien sind dies oft nicht und sind meist sehr subjektiv
Erkläre die Konsequenzen einer wissenschaftlichen Einstellung
Wissen, das mit dieser Methode generiert wurde, kann und sollte präferiert wrrden
man benötigt kein logisches Abgrenzungskriterium, sondern man kann die Merkmale der Wissenschaftlichen Einstellung nutzen, um verlässlichere und bessere Theorien zu findne
Nenne ein Beispiel für nicht-wissenschaftliche Befunde
Ablauf der Erdgeschichte laut der Bibel
widersprüchliche empirische Befunde
inkonsistente Argumentation
Kennen Sie aus Ihrem Alltag zwei Variablen, die korrelativ, aber nicht kausal zusammenhängen? Wenn ja, welche sind das?
Eis essen -> Raubüberfall
Erkläre das Lateinische Quadrat
wenn keine vollständige Ausbalancierung als Kontrolltechnik für das IP Design zur Verhinderung von Reihenfolgeneffekten (z.b. carry over oder Sensitivierung) ist, so wird das LAteinische Quadrat verwendet
-> jeder der Bedingungen erscheint einmal in jeder Gruppe und jedes MAl an unterschiedlicher Position
Was sollte man machen wenn die Ausbalancierung unökonomisch ist
Was kann ich aus versuchsplanerische Sicht ändern um die interne Validität bei quasi Experimenten zu erhöhen
erkläre die follow up Messung im RCT
AV wird noch ein drittes Mal erhoben um langfristige Effekte des Treatments zu prüfen und es wird eine weitere Gruppe erfasst um z.b. erwartungseffekte zu prüfen
erkläre das quasi experimentelle Pendant zum RCT
Vorher-Nachher Kontrollgruppenpln ohne Randomisierung
Vorteil: Selektionseffekte bezüglich der AV können aufgedeckt werden
Erkläre Möglichkeiten für die Festlegung unterschiedlicher BAselines
über verschiedene VPN
für verschiedene AVs
für verschiedene Settings bzw. Kontexte
Wieso sind Reversal Designs nicht immer umsetzbar
Erkläre die Signifikanzvalidität
man muss das richtige Verfahren zur Datenanalyse auswählen und auf Voraussetzungen des verwendeten Tests achten
Erläutere den Unterschied zwischen systematischen Reviews und Meta Analysen
systematische Reviews sind eine qualitative ZUsammenfassung der Forschungsergebnisse aber potentielles Problem dabei ist die Subjektivität des AUtors (z.B. dass bestimmte Befunde hervorgehoben werden) -> deshalb muss man sich an Richtlinien zur Gestaltung von Reviews halten
Meta Analysen hingegen sind eine quantitative Zusammenfassung indem man die mittlere gewichtete Effektgröße berechnet
Erkläre wovon die Qualität von Reviews und Meta Analysen abhängig sind
sind abhängig von der Qualität der Studen
und Publikationbias: Studien mit signifikantem Testergebis haben eine höhere Chance veröffentlicht zu werden
Folge: Über- bzw. Unterschätzung der tatsächlichen Effektgröße
Welche Validität bezieht sich auf die Qualität einer konkreten Studie
erkläre die Hypothesenvalidität
Aumaß der PAssung von statistischen Hypothesen und empirischen Vorhersagen
wann können im AB Design saisonale Effekte, Regression zur Mitte und Maturationseffekte ausgeschlossen werden
erkläre wovon Versuchsplanung abhängt
Art der Fragestellung
Art der Zuordnung der Versuchspersonen
Forschungsbudget
Wie wertet man die Daten richtig aus
grafische Betrachtung der Daten z.B. Histogramm und deskriptive Statistiken mit z.b. Mittelwert
Umgang mit Ausreißern und Extrenwerten
-> allgemein akzeptierte Regel: Extremwerte aus Auswertung ausschließen
Wie kann man einen guten Indikator erkennen und wieso sollte man immer mehrere Indikatoren eines Konstrukts erfassen
Testgütekriterien:
Objektivität -> Erfassung ohne Beeinflussung des VL
Konstruktvalidität -> das messen was man auch vorgibt zu messen -> KOnstrukt sollte also durch Indikator abgebildet werden
Mehrere Indikatoren, da dies hilft Konstrukt in seiner ganze Breite abzubilden -> erhlht Variablenvalidtät
Nenne die Vor-und NAchteile eines Single case Designs
Vorteile:
Ökonomisch
Ideographische Ausrichtung ermöglicht, dass Verhalten einer einzelnen Person gut abgebildet werden
Nachteile:
geringe Generalisierbarkeit der Befunde-> geringe externe Validität
teils unmöglich Interaktionseffekte zu untersuchen
auf Operationalisierung achten
Viele Drittvariabeln möglich wie z.b. Maturation oder Geschichtseffekte
Nenne Strategien zur Erhöhung der internen Validität
möglichts viele potentielle Störvariablen erheben
Personen parallelisieren, randomisieren, KOntanthaltung
-> Kontrolltechniken
Ergänzung weiterer Designelemente wie zusätzliche Gruppen, Messzeitpunkte, Treatments usw
-> abhängig von Forschungsbudget
Nenne mögliche Fragestellungen und die Quelle von diesen
Quelle:
andere Forschungsergebnisse
NAchdenken
Beobachtung aus Alltag
externe Auftraggeber
Fragen:
Zusammenhangsfragen
Existenzfragen
Vergleichsfragen
kausale Fragestellungen
Nennen Sie drei Merkmale einer wissenschaftlichen Einstellung
1. Validität -> Befunde müssen valide sein, also so gestaltet sein, dass man richtig über die Hypothese entscheidet
2. Replizierbarkeit -> Experimente müssen replizierbar sein und somit muss Objektivität gewährleistet sein. Transparenz (Open Science) ist essentiell
3. Experimente müssen wissenschaftlichen Standards genügen
wie sollte man die statistischen Ergebnisse richtig intepretieren bzw die Ergebnisse in Bezug zur Fragestellung setzen
Fehlinterpretation vermeiden
Teststärke beachten
Stichprobeneffektgröße beachten -> denn bei extrem hohem n wird man immer irgendwann einen Effekt sehen bzw H0 ablehnen
die grenzen der eigenen Studie kennen -> nicht übergeneralisieren, mögliche Störvariabeln anerkennen usw . -> mit sich selbst kritisch sein
Wie werden die Ergebnisse von Replikationsstudien zusammengefasst
mit systematischen Reviews und Meta Analysen
Erkläre was systematische Reviews sind
qualitative Zusammenfassung und kritische Bewertung des aktuellen Forschungsstands
potentielles Problem ist die Subjektivität der Autoren -> z.B. bestimmte Befunde werden hervorgehoben
also: Es braucht Richtlinien zur Gestaltung von Reviews
Was kann die externe Validität beeinflussen
Moderatoren
Personen: Geschlecht, Alter usw.
Situation: im Labor vs natürliche Umgebung
Operationalisierung: Anzahl der Sitzungen, Wohlbefinden vs Symptome
Zeitpunkte
externe Validität= Ausmaß wie sehr man gefundenen kausalen Effekt auf andere Personen, Situationen usw. generalisieren lassen
Systematische Reviews sind
Meta Analysen sind
Was ist das Falsifikationskriterium und warum wird es abgelehnt
- Kriterium zur Abgrenzung von wissenschaftlichen und nicht wissenschaftlichen Aussagen
- Laut kritischen Rationalisten (z.B. Popper) müssen Theorien scheitern können -> dafür spezifische Aussagen notwendig, man muss kritisch sein
- Eine inkonsistente Beobachtung führt zur Falsifikation
aber:
- Es gibt nicht wissenschaftliche Aussagen, die falsifizierbar sind
- Notwendigkeit von Axiomen und Hilfstheorien (Zusatzannahmen) = bei Falsifikation lässt sich nicht identifizieren WAS genau falsch ist
- Enthält Induktionsschluss -> man schließt von EINER spezifischen Beobachtung auf universelle Gesetzesmäßigkeit
- Historische Beispiele bei denen an Theorien trotz Falsifikation festgehalten wurde
Erklären Sie den Interaktionseffekt an einem selbstgewählten Beispiel
Der Effekt eines Faktors ist abhängig von der Ausprägung eines anderen Faktors
Beispiel: Patient bekommt Psychotherapie und Antidepressivum als Medikament
-> In Kombination Therapie+ Medikament kommt es zu einem stärkeren Effekt
Also ohne Therapie reduziert Medikament Depression leicht
Ohne Medikament reduziert sich Depression ebenso
IN KOMBINATION könnte Effekt überproportional stärker sein da sie sich gegenseitig ergänzen
Nennen Sie zwei Prinzipien empirischer Wissenschaft
- Beruht auf einer wissenschaftlichen Einstellung (Validität) -> Wissenschaft muss also Mindeststandards erfüllen wie z.B. logische Konsistenz, Verständlichkeit
- Valide und replizierbare empirische Befunde -> Transparenz, Kritisch Sein
Warum kann das Verifikationskriterium nicht zur Abgrenzung von wissenschaftlichen und nicht wissenschaftlichen Gesetzen genutzt werden
- Induktionsschluss-> man generalisiert von einer begrenzten Menge an Beobachtungen auf universale Gesetzmäßigkeiten
- Verifikation ist unvereinbar mit Universalität wissenschaftlicher Theorien!
- Beobachtungen sind nicht theoriefrei und sind subjektiv
Was bedeutet das Verifikationskriterium?
- Abgrenzungskriterium von wissenschaftlichen und nicht wissenschaftlichen Aussagen der Empiristen
- Menge an Beobachtungen verifiziert Aussage und man kann daraus allgemeine Gesetzmäßigkeiten erschließen
- Die wichtigste Quelle der Erkenntnis sind Sinneserfahrungen
Nenne die zwei weiteren Arten der Kontrolle für den Selektionseffekt neben der Randomisierung
Selektionseffekt = bestehende Unterschiede der zwischen Personen in der EG und KG vor Durchführung des eigentlichen Treatment aufgrund von Drittvariablen
Parallelisierung -> Ordne jeder Versuchsperson einen Zwilling zu, damit man also durch das Bilden von möglichst ähnlichen Paaren die Confounder vergleichbar macht
Konstanthaltung-> Man untersucht nur Personen, die spezifische Ausprägungen im Confounder haben
Nennen Sie je einen Einfluss auf die Qualität von Meta-Analysen und systematischen Reviews
Warum ist es sinnvoll, ein Konstrukt mit mehreren Indikatoren zu messen?
In psychologischen Studien sollen kausale oder nicht-kausale Zusammenhänge zwischen (mehr oder weniger) direkt zugänglichen Konstrukten (z.B. Angst) untersucht werden. Dazu muss man diese Konstrukte messen, d.h. den Ausprägungen von Personen in dem Konstrukt einen Wert auf einem Messinstrument zuweisen (z.B. die Zahl 7 für eine hohe Angst in einem Selbstbericht).
Die Variablenvalidität wäre perfekt, wenn die zugewiesene Zahl das Konstrukt perfekt abbilden würde. Das wird aber in der Regel nicht der Fall sein, weil Konstrukte mehr umfassen als das, was in dem einzelnen Messinstrument abgebildet wird. So umfasst Angst nicht nur das Gefühl Angst, das mit dem Selbstbericht erfasst wird, sondern auch physiologische Reaktionen (z.B. ein gesteigerter Herzschlag) oder bestimmte Handlungstendenzen (z.B. ein Angstausdruck im Gesicht, eine Fluchttendenz). Mehrere, unterschiedliche Messinstrumente helfen also dabei, dass Konstrukt in seiner ganzen Breite abzubilden und so die Variablenvalidität zu optimieren
Beschreiben Sie die wesentlichen Merkmale eines Reversal Designs. Worin unterscheiden sich das A-B, das A-B-A und das A-B-A-B-Design?
Das zentrale Merkmal des Reversal Designs ist, dass man das Treatment wieder entfernt. Im Anschluss daran wird es ggf. wieder eingeführt. Im A-B Design gibt es zwei Phasen: eine erste Phase an Baseline-Messungen und dann eine Phase an Messungen, vor denen oder während das Treatment aktiv ist. Im A-B-A Design kommt eine dritte Baseline-Phase hinzu, in denen das Treatment nicht mehr aktiv ist bzw. entfernt wurde. Im A-B-A-B-Design wird dann in einer vierten Phase das Treatment wieder eingeführt und die AV gemessen
Sie wollen Ihre produktive Studienzeit erhöhen, in dem Sie sich nach jeder Phase produktiven Studierens belohnen (z.B. ein Stück Schokolade essen, einen Kaffee trinken o.Ä.). Überlegen Sie sich zunächst, welches Verhalten Sie nutzen könnten, um „produktive“ Studienzeit zu messen (welche AV würden Sie also verwenden). Überlegen Sie sich dann ein Reversal Design, mit dem Sie den Effekt der von Ihnen gewählten Belohnung testen könnten
Mögliche Operationalisierungen sind z.B. wie oft man es am Tag schafft, einen Text, der fürs Studium relevant ist, für 30 Minuten zu lesen oder wie oft man es am Tag schafft, für 30 Minuten, Übungsaufgaben zu bearbeiten. Es sollte möglichst verhaltensnah sein, um das Treatment valide zu untersuchen. Ein Reversal Design könnte so aussehen: Man schreibt in einer Start-Woche auf, wie oft man es an jedem Wochentag schafft, produktiv zu studieren. Dann folgt eine Woche, in der man das Treatment einführt. Man notiert wieder für jeden Tag, wie oft man produktiv arbeitet. Dann folgt eine Woche, in der man das Treatment weglässt und dann wieder eine Woche, in der das Treatment eingeführt wird. In beiden Wochen notiert man sich pro Tag die produktive Arbeitszeit
das Ausmaß, in dem ein Forschungsergebnis auf andere Situationen verallgemeinert werden kann." Was wird damit definiert?
Was ist die Validität eines Experiments? Welche vier Validitätsarten gibt es?
Die Validität einer Untersuchung beschreibt das Ausmaß, in dem aus einem Versuchsergebnis sicher Schlussfolgerungen über die zugrunde liegende Hypothese gezogen werden können.
Die vier Validitätsarten sind die Variablen-, die interne, die statistische und die externale Validität
Man nimmt an, dass Vorurteile mit diskriminierendem Verhalten gegenüber Fremdgruppen (z.B. weniger Gehalt zahlen) einhergehen. Wann würde es sich bei dieser Beziehung nach dem Regularitätsansatz und dem manipulativen Ansatz um eine kausale Beziehung handeln?
Beziehung, die postuliert wird: Vorurteile → diskriminierendes Verhalten
Nach dem Regularitätsansatz müssten beide Variablen regelmäßig gemeinsam auftreten, wobei Vorurteile zeitlich vor diskriminierendem Verhalten eintreten sollten. Beide Variablen sollten also korrelieren
Nach dem Manipulationsansatz sind Vorurteile genau dann eine Ursache für diskriminierendes Verhalten, wenn die Manipulation von Vorurteilen (z.B. durch Aufklärungskampagnen) das Ausmaß von späteren diskriminierenden Verhaltensweisen beeinflussen würde (z.B. weniger diskriminierendes Verhalten). Andere potentielle Ursachenvariablen dürfen durch diese Manipulation aber nicht beeinflusst werden.
In einer Studie wird der Einfluss der aktuellen Stimmung auf die Konzentrationsleistung untersucht. Personen sehen dazu einen traurigen Film und bearbeiten dann einen Konzentrationstest. Im Anschluss daran schauen sie einen komischen Film und bearbeiten den Konzentrationstest erneut. Erläutern Sie anhand des Beispiels wie ein Carry-Over Effekt, ein Sensitivierungs-Effekt und ein Übungseffekt die Ergebnisse beeinflussen könnten.
Im Beispiel schauen die VPN einen traurigen Film, bearbeiten einen Konzentrationstest und schauen dann einen komischen Film. In diesem Fall können die Personen immer noch traurig sein, wenn sie den komischen Film schauen (die Traurigkeit ist noch nicht „abgeklungen“), so dass sie weniger gut gelaunt sind im Vergleich beispielsweise zur Situation, in der sie einen neutralen oder gar keinen Film geschaut hätten. Das wäre ein Carry-Over Effekt.
Da die Person zweimal den gleichen Konzentrationstest ausfüllen, werden sie beim zweiten Ausfüllen schneller als beim ersten sein, weil sie die Stimuli kennen, eine Ausfüllstrategie entwickelt haben usw. Das wäre der Übungseffekt.
Der Sensitivierungseffekt ist in diesem Beispiel schwer vom Übungseffekt zu trennen. Angenommen, die negative Stimmung führt dazu, dass man sich an bestimmte Stimuli besser erinnert (tatsächlich kann eine negative Stimmung die Gedächtnisleistung verbessern). Sind das die Stimuli, die man in einem Konzentrationstest auch rausstreichen muss, dann könnte man das als Sensitivierungseffekt bezeichne
2. Sie untersuchen, ob eine neue Lehrmethode die Mathematikleistung von Schüler*innen verbessert. Sie erheben dazu eine Gruppe an Schüler*innen, die mit der neuen Methode und eine Gruppe an Schüler*innen, die mit der Standard-Methode unterrichtet werden. Erläutern Sie anhand dieses Beispiels wie Attrition und Erwartungen der Schüler*innen die Ergebnisse beeinflussen könnten.
Angenommen, bei der neuen Lehrmethode werden Tablets bzw. Smartphones in den Unterricht integriert, während das bei der Standardmethode nicht so ist. Es könnten dann solche Schüler*innen die Studie abbrechen, die sich mit der Bedienung von Smartphones bzw. Tablets nicht auskennen bzw. Probleme damit haben, da sie sich nicht mehr beteiligen können, weil es demotivierend ist usw. Hängt dieses Wissen auch mit der in der Studie erfassten AV zusammen (z.B. die Note), dann könnte so ein Attritionseffekt entstehen.
Angenommen, die Schüler*innen wissen, dass sie Teil einer Studie sind, die eine neue Lehrmethode testet. Sie könnten sich dann mehr anstrengen, weil sie eine gute VPN sein wollen, weil ihnen die neue Methode besser gefällt [Sie könnten sich auch weniger stark anstrengen, wenn ihnen die Lehrmethode nicht gefällt]. Da Motivation mit Noten zusammenhängen, könnte der beobachtete Effekt so alternativ über Erwartungen erklärt werden
Sehr oft werden Studien durchgeführt, in denen eine Experimental- und eine Kontrollgruppe untersucht und die Abhängige Variable vor und nach der Studie in beiden (!) Gruppen erfasst wird.
Im Entspannungstrainingsbeispiel würden also verschiedene Personen an dem Training teilnehmen oder nicht und beide Personengruppen würden am Anfang und Ende der Studie zu ihrem Wohlbefinden befragt:
a. Welche Effekte (d.h. Mittelwertsunterschiede) sind für Forschende in diesem Design Ihrer Meinung nach interessant?
b. Da man in dem Design ein Zwischen-Personen- und ein Innerhalb-Personen Design kombiniert, können die Ergebnisse durch die Kombination eines Selektion- und Geschichtseffekts und die Kombination eines Selektions- und Maturationseffekts beeinflusst sein. Überlegen Sie sich für die Entspannungsstudie jeweils ein Beispiel für die beiden Kombinationseffekte
Es gibt mind. 3 Effekte, die interessant sind: Unterscheiden sich (1) die VPN in der EG und der KG im mittleren WB vor der Studie (also bevor überhaupt irgendwas mit ihnen gemacht wurde). Steigt (2) das mittlere WB in der EG von der ersten zur zweiten Messung an und (3) bleibt das mittlere WB in der KG von der ersten zur zweiten Messung stabil [bzw. steigt es weniger stark an als in der EG]?
Die beiden kombinierten Effekte können eintreten, wenn es eine Variable gibt, in denen sich die beiden Gruppen unterscheiden und wenn die Personen mit einer spezifischen Ausprägung in der Variable stärker/schwächer auf das historische Ereignis bzw. die Reifung reagieren.
Angenommen, in der EG sind mehr junge Personen als in der KG. Nehmen wir weiter an, dass das historische Ereignis ein Lockdown ist (vgl. Corona) und dass ältere Personen stärker unter dem Lockdown leiden. Dann könnte der Unterschied im mittleren Wohlbefinden zwischen der KG und der EG zum zweiten Zeitpunkt daran liegen, dass die älteren Personen in der KG sich durch den Lockdown unwohler fühlen.
Nehmen wir analog an, dass junge Personen sich schneller von Angststörungen erholen als ältere Personen („die „Reifung“), dann könnte der KG-EGUnterschied im mittleren Wohlbefinden auch an diesem schnelleren Reifungseffekt liegen [wobei man natürlich erklären müsste, warum es diese altersspezifischen „Erholungs“effekte gibt].
Was unterscheidet ein Experiment von einem Quasi-Experiment?
Im Experiment weist man die Personen/Untersuchungseinheiten randomisiert den Untersuchungsbedingungen zu. Im Quasi-Experiment ist das nicht so.
Sie untersuchen, ob eine neue Lehrmethode die Mathematikleistung von Nachhilfeschüler*innen verbessert. Sie erheben dazu eine Gruppe an Nachhilfeschüler*innen, die mit der neuen Methode und eine Gruppe an Nachhilfeschüler*innen, die mit der Standard-Methode unterrichtet werden
. a. Sie vermuten, dass der sozioökonomische Status der Eltern (umgangssprachlich: wie „reich“ die Eltern sind) die Ergebnisse der Studie alternativ erklären könnten. Begründen Sie diese Vermutung!
b. Sie überlegen, den Einfluss des sozioökonomischen Status mittels Konstanthaltung, Parallelisierung oder Randomisierung zu kontrollieren. Beschreiben Sie, wie sie bei jeder der drei Techniken vorgehen würden und erläutern Sie, was für oder gegen die Verwendung der jeweiligen Technik für dieses Beispiel sprechen würde.
Personen mit höherem sozioökonomischen Status haben in der Regel eine höheren Bildungs- bzw. Berufsabschluss. Sie könnten ihre Kinder neben der Nachhilfe also selbst unterstützen, weil sie ggf. eher das relevante Wissen besitzen. Außerdem könnten sie ggf. weitere Bildungsangebote über die Nachhilfe hinaus finanzieren, um den Bildungserfolg des Kindes zu sichern, usw. Würden also Kinder mit höherem Status häufiger in der Bedingung neue Methode sein, könnte das den - dann ggf. positiven Effekt der neuen Methode - alternativ erklären [bzw. den fehlenden Effekt, wenn sie häufiger in der Gruppe „alte Methode“ sind]. Bei der Konstanthaltung und der Parallelisierung würde man den Status vorher erfassen und nur Kinder einer Statusgruppe (z.B. mittleres Einkommen) in beiden Bedingungen untersuchen (Konstanthaltung) oder man würde zu jeder potentiellen VPN einen statusgleichen Zwilling suchen und diese Zwillingspaare dann jeweils der „alte Methode“ bzw. „neue Methode“ zuweisen (Parallelisierung). Neben der Generalisierbarkeit bei der Konstanthaltung ist ein Hauptproblem beider Techniken, dass man den sozioökonomischen Status der Eltern potentieller VPN irgendwie vorher erfassen muss. Das ist gar nicht so leicht, weil Person ungern über ihr Gehalt o.Ä. sprechen. Beide Techniken würden darüber hinaus den potentiellen Einfluss weiterer unbekannter Confounder nicht kontrollieren.
Bei der Randomisierung würde man die Schüler*innen einfach zufällig den beiden Gruppen zuweisen. Je größer die untersuchten Stichproben werden, desto balancierter sollten die beiden Gruppen bzgl. des sozioökonomischen Status (und aller anderen Confounder) sein, den man auch nicht erfassen bräuchte. Hinweis: Die Wahrscheinlichkeit (die Basisrate), dass man Kinder mit höherem sozioökonomischen Status in Nachhilfegruppen findet, kann schon deshalb erhöht sein, da Nachhilfeunterricht finanziert werden muss. Das ist aus Sicht der Randomisierung erstmal nicht problematisch, da die Drittvariable im Mittel bzw. im Verhältnis zwischen den Gruppen konstant sein muss und wo dieser Mittelwert bzw. das Verhältnis liegt, ist egal. Wenn das durchschnittlichen Einkommen der Eltern also in beiden Gruppen 100.000 Euro ist, dann wäre die Drittvariable konstant und Status könnte den Effekt des Treatments nicht alternativ erklären. Es würde aber die Generalisierbarkeit der Befunde einschränken; deshalb ist es wichtig, wenn möglich, auch bei randomisierten Studien potentielle Drittvariablen und wichtige soziodemographische Variablen zu erfassen, um etwas zur Generalisierbarkeit aussagen zu können. Alternativ könnte man natürlich auch versuchen, repräsentative Stichproben zu ziehen.
Warum ist die interne Validität korrelativer Studien gering? Wie kann man die interne Validität erhöhen?
In korrelativen Studien wird der assoziative Zusammenhang zwischen zwei Variablen X und Y bestimmt, in dem man unterschiedliche Personen bittet, ihre Ausprägungen auf X und Y anzugeben.
Ist man z.B. am Zusammenhang zwischen der Intelligenz von Personen und Ihrem Gehalt interessiert, dann macht man mit den Personen einen Intelligenztest und fragt nach dem Gehalt und würde dann die Werte miteinander korrelieren. Man variiert also als VL nichts systematisch, sondern erfasst natürlich auftretende Werte in den beiden Variablen, die man dann in Beziehung zueinander setzt. Außerdem muss der IQ nicht vor dem Gehalt „auftreten“ und es kann eine Drittvariable geben, die für den positiven Zusammenhang zwischen den beiden Variablen verantwortlich ist (Korrelation ≠ Kausalität). Die Bedingungen für eine kausale Beziehung sind also nicht erfüllt.
Fairerweise sollte man hier aber einräumen, dass korrelative Studien oft nicht mit dem Ziel durchgeführt werden, einen kausalen Zusammenhang zwischen den Variablen zu prüfen
Sie möchten untersuchen, ob eine neue Lehrmethode die Mathematikleistung von Schüler*innen verbessert. Sie erheben dazu eine Gruppe an Schüler*innen, die mit der neuen Methode unterrichtet werden. Welche weitere Stichprobe müssten Sie erheben, um den Effekt der neuen Lehrmethode abschätzen zu können?
Um den Effekt zu bestimmen (genauer: eine Schätzung des tatsächlichen Effekts) müsste man eine Bedingung erheben, in der Schüler*innen nach der alten Methoden (oder gar nicht) unterrichtet werden. Der Effekt ist dann der Unterschied zwischen den beiden Bedingungen
Geben Sie ein Beispiel für eine Beziehung zwischen zwei Variablen X und Y, die Sie als kausal bezeichnen würden, die nach dem manipulativen Ansatz aber als nicht kausale Beziehung klassifiziert werden würde.
Nach dem Manipulationsansatz ist X eine Ursache von Y, wenn die Manipulation von X zu Veränderungen in Y führt (und die Manipulation nicht andere Ursachen beeinflusst). Zentral ist also die prinzipielle Manipulierbarkeit.
In unserem Alltag bzw. in verschiedensten Disziplinen gibt es aber Beziehungen, die wir als kausal bezeichnen, obwohl man X nicht manipulieren kann oder aus ethischen Gründen will. Z.B. werden die Gezeiten (also Ebbe und Flut) durch die Anziehungskräfte des Mondes verursacht, man kann den Mond aber nicht manipulieren.
Was meint Kuhn mit „Rätsellösen“?
ist für Kuhn das zentrale Merkmal wissenschaftlicher Arbeit in der Phase der Normalwissenschaft
Auf basis der Grundannahmen des Paradigmas werden Gesetze und Theorien vorgeschlagen , empirisch geprüft und ggf wieder revidiert
Beispiel: kognitives Paradigma
es werden innerhalb eines Paradigmas viele verschiedene Phänomene mit kognitiven Erklärungen untersucht -> Rätsel weisen also ähnliche Lösungen auf, da sie gemeinsame Grundannahmen besitzen
Lösungen können ähnlich sein durch gemeinsame Grundannahmen !
Vorutrteile -> werden durch kognitive Verzerrungen erklärt
Psychische Erkrankungen -> werden durch dysfunktionale Gedanken erklärt
Kuhn glaubt, dass psychologische und soziologische Faktoren die Entstehung und Entwicklung von Theorien beeinflussen. In welchen Phasen der Wissenschaft spielen diese Faktoren eine Rolle
In Phase der Normalwissenschaft und in Revolution spielt es eine Rolle:
Normalwissenschaft:
es werden verschiedene Theorien EINES paradigmas herangezogen um Rätsel zu lösen -> Welche dieser Theorien sich durchsetzt, ist abhängig von rationalen (Anzahl der Bestätigung/Widerlegung) aber auch psychologisch-soziologischen Faktoren (MAcht, Geld).
Revolution:
welches Paradigma setzt sich durch?
auch hier können psychologisch-soziologische Faktoren eine Rolle spielen
Ein Problem des pragmatischen Ansatz Kuhns ist, dass Fächer multiparadigmatisch sein können und man an verschiedene Paradigmen „glauben“ kann. Überlegen Sie, ob die Psychologie multiparadigmatisch ist und welche Paradigmen es gibt
für Kuhn wichtiges Merkmal einer wissenschaftlichen Gemeinschaft, dass sie im Rahmen eines Paradigmas forschen
JA Psychologie ist multiparadigmatisch
-> z.B. Behaviorismus vs. Kognitivismus
Bewusstseinspsychologie von Wundt
Gestaltpsychologie
-> All diese Systeme umfassen Koponenen, die Kuhn als Teile eines Paradigmas definiert -> existieren aber NEBENEINANDER
Wie könnte man auf den Vorwurf „Das ist nur eine weitere Theorie“ reagieren?
„Just a theory“
ist verbunden mit der Überzeugung, dass wenn man die Wahrheit von Theorien nicht beweisen kann, dass dann alle Theorien gleich wahr oder gleich wahrscheinlich sind.
-> Das ist eine Fehlkonzeption von Wissenschaft, da man aus der Fallibilität wissenschaftlicher Aussagen nicht folgern kann, dass Theorien nicht vergleichbar sind. Vielmehr unterscheiden sich Theorien darin, wie gut sie Dinge vorhersagen und erklären können. Sie unterscheiden sich auch darin, wie konsistent und verständlich sie sind und wie stark sie durch empirische Befunde (aktuell) unterstützt werden. Es ist also rational, an eine Theorie mehr zu glauben als an eine andere Theorie.
Warum kann man das Verifikationskriterium nicht zur Abgrenzung von wissenschaftlichen und nicht-wissenschaftlichen Gesetzen/Theorien herangezogen werden?
Nach dem Verifikationskriterium sind Gesetze bzw. Theorien wissenschaftlich, wenn man ihre Wahrheit empirisch bestätigen (= verifizieren) kann. Dazu leitet man aus dem Gesetz/der Theorie Vorhersagen ab und nutzt dann die bestätigenden Beobachtungen, um auf die Wahrheit der Theorie zu schließen.
induktive Schluss ist problematisch
man kann nicht vons endliche aufs unendliche schließen, also nicht auf die Wahrheit einer univsersellen Gesetzesaussage
aus Sicht der Logik kann man universelle Gesetze empirisch nicht verifizieren
-> Nach dem Verifikationsprinzip würden dann aber alle universellen Gesetze zu den nicht-wissenschaftlichen Aussagen gehören
Erläutern Sie die Begriffe gesetz an einem selbstgewählten Beispiel
Bei einem empirischen Gesetz handelt es sich um einen bewährten Zusammenhang zwischen mindestens zwei Variablen.
Sind katastrophierende Gedanken über viele Situationen (auch in wissenschaftlichen Studien) hinweg zusammen mit Panikattacken aufgetreten, würde man von einem Gesetz sprechen.
An einem selbstgewählten Beispiel ein nominal-qualitatives, ein ordinales und ein quantitatives Gesetz aufstellen
Nominal-qualitatives: Wenn x dann y also z.B. Wenn Katastrophierende Gedanken, dann Panikattake
Ordinales: Je weniger, desto z.B. Je mehr katastrophierende Gedanken, desto stärker ist die Panikattacke
Quantitatives: z.B. 2x Kastastrophierende Gedanken -> 2x Panikattacke
Definieren Sie das Abgrenzungsproblem
- Was unterscheidet wissenschaftliche von nicht wissenschaftlichen Aussagen?
è Welche Kriterien müssen dafür erfüllt sein?
Was ist eine RCT? Beschreiben Sie anhand eines eigenen Beispiels den RCT und auch, was man als Ergebnis erwarten würde
RCT= Randomized Controlled Trial
Mixed Design, welches als Goldstandard der Forschung gilt-> hohe interne Validität durch Randomisierung und zusätzlichem Vorher/Nachher Vergleich
Beispiel: Untersuchung der Wirkung eines Medikaments-> Man randomisiert welche VPN in EG und welche in KG kommen. EG und KG wird vor Treatment gemessen, dann muss EG ein Medikament einnehmen und es wird in EG und KG wieder die Variable gemessen. Als Ergebnis würde man erwarten, dass EG 1. Messung und 2. Messung sich starj unterscheiden, das Medikament also einen positiven Effekt hat und, dass KG gleich bleibt
Erklären Sie anhand des Regularitätsansatzes, wann X die Ursache von Y ist
- Wenn X zeitlich immer vor Y erfolgt
- Wenn X und Y regelmäßig zusammen auftreten
Aber: oft Scheinkorrelationen /zufällige Regularitäten
Erklären Sie den Potential Outcome Framework, den individuellen kausalen Effekt und warum der nicht berechenbar ist
Potential Outcome Framework: statistischer Ansatz, der mehrere Ziele verfolgt wie mathematische Definition des kausalen Effekts, Angabe der Umstände in denen der Mittelwertsunterschied eine Schätzung des kausalen Effekts ist
Alle Ausprägungen der Variable einer Person
Grundlage: kontrafaktische Weröt
Beim Individuellen kausalen Effekt berechnet man dann die Differenz zwischen beiden potentiellen Outcomes der Person i
Aber: eine Ausprägung ist kontrafaktisch, wir kennen immer nur ein Outcome, nämlich das was realisiert wurde -> das andere in einer „Was wäre wenn“-Welt = individueller kausaler Effekt ist niemals bestimmbar
Ein Forscher schlägt vor das Alpha Niveau immer auf 0,001 zu setzen. Wägen Sie Vor- und Nachteile dafür ab
Pro: geringe Wahrscheinlichkeit die H0 abzulehnen, wenn die H0 wahr ist
Kontra: dafür erhöht sich aber der ß Fehler, also H1 abzulehnen obwohl H1 wahr ist und die Teststärke verringert sich = geringere Wahrscheinlichkeit einen Effekt zu sehen
Was ist eine direkte und was eine konzeptuelle Replikationsstudie?
Direkte Replikation: Die Originalstudie soll so genau wie möglich bezüglich Material, Design und Prozedur wiederholt werden
Ziel: Absicherung des Befunds
è Exakte Replikation in der Psychologie allerdings nicht möglich
Konzeptuelle Replikation: Originalstudie wird in abgewandter Form wiederholt
Ziel: Generalisierung und Entdeckung -> zur Absicherung eines Befundes NICHT geeignet
Erklären Sie an einem Beispiel Attrition und warum dadurch die interne Validität gefährdet wird
Attrition= VPN brechen die Studie ab z.B. Drittvariable Alter-> mehr ältere Menschen brechen Studie ab
Interne Validität wird gefährdet, da Selektionseffekt entstehen kann und ein unausgeglichenes Verhältnis in ZP und IP
Erklären Sie an einem Beispiel warum die Ursache X notwendig, aber nicht hinreichend für einen Effekt Y ist
Notwendig: X muss vorhanden sein, damit Y eintreten kann
Nicht hinreichend: X allein reicht aber nicht aus, um Y hervorzurufen
z.B. Medikament für die Heilung von Depression
Medikament X muss vorhanden sein für Y, aber auch weitere Einflussfaktoren wie z.B. Therapie sind nötig damit Y eintreten kann
Zwei ForscherInnen haben ausgerechnet, dass sie 90 Versuchspersonen für eine Teststärke von 0,9 zur Erhebung der Arbeitsleistung nach einem Kreativitätstraining brauchen. Allerdings ist dies nicht ökonomisch. Beschreiben Sie eine Lösungsstrategie. Es liegt ein Zwischenpersonen Design vor
Es gilt: je größer n, desto größer Teststärke -> ggf. also alpha Fehler erhöhen, damit Teststärke größer wird trotz geringerem n
- Die Effektgröße könnte doch größer sein als ursprünglich angenommen= würde n verkleinern
- Schauen ob Teststärke bei ökonomischem n hoch genug wäre um Effekt zu finden
- Kooperieren mit anderen Forschungszentren
- Alternatives Studiendesign wählen: Ggf. zu einem Innerhalb-Personen-Design wechseln
- Oder keine Untersuchung machen da zu kleines n bedeutet eine zu geringe Teststärke
Wieso können Reversal Designs nicht immer durchgeführt werden
aus ethish
Erläutern Sie die vorhersage an einem selbstgewählten Beispiel
Mit Vorhersage meint man eine Prognose über das spezifische Ergebnis in einer empirischen Untersuchung, das man aus einer Theorie, einem Gesetz oder einer Hypothese ableitet.
In unserem Beispiel wäre „Wenn die Versuchspersonen in Studie Y Medikament X nehmen, das katastrophierendes Denken abschwächt, dann erwarten wir, dass diese Personen weniger Panikattacken erleben im Vergleich zu Personen, die dieses Medikament nicht nehmen.“ beispielsweise eine Vorhersage.
Warum enthält jeder Falsifikationsversuch einen induktiven Schluss?
man muss immer Hilfsannahmen machen
z.B. dass man Herzschlag mit bestimmten Gerät messen kann
Diese Hilfsannahmen muss man als wahres, bewährtes Wissen voraussetzen -> ansonsten Falsifikation nicht möglich
ABER: induktiver schluss, da man von früheren Beobachtungen (in denen die Hilfsannahmen bestätigt wurden) darauf schließt, dass diese jetzt auch hier gelten
Warum kann man das Falsifikationskriterium nicht zur Abgrenzung von wissenschaftlichen und nicht-wissenschaftlichen Gesetzen/Theorien heranziehen
man muss besitmmte Hilfsannahmen machen
in wissenschaftlichen Studien prüft man also nicht nur die wahrheit/falschheit der theorie sondern auch der Hilfsannahmen
-> aus logischer Sicht folgende KOnsequenz:
- Die Theorie ist falsch und die Hilfsannahmen sind wahr
Die theorie ist wahr und die Hilfsannahmen sind falsch
Beide sind falsch
-> WAS falsch ist kann man nicht herausfinden = keine falsifikation möglich
Ist die Astrologie nach dem Falsifikationskriterium eine Wissenschaft oder eine Nicht-Wissenschaft?
-> man hat es noch nicht falsifizieren können -> gilt solange wahr bis inkonsistente Beobachtung gemacht wird
aber: sehr unspezifische und vage Vorhersagen/Aussagen-> ist also eigentlich gar nicht falsifizierbar und dementsprechend KEINE Wissenschaft, da sie niemals scheitern kann
Geben Sie ein Beispiel für eine Beziehung zwischen zwei Variablen X und Y, die Sie zunächst als kausal bezeichnen würden, aber eigentich nicht kausal sind laut dem ANsatz
Eis essen-> Raubüberfälle
Scheinkorrelationen durch zufällige Regularitäten
X vor Y also man isst erst Eis und dann mehr Raubüberfälle und gemeinsames AUftreten ABER haben gemeinsame Ursachen nämlich WÄRME
Last changed2 months ago