Selection Bias:
-Differenz im untersuchten Parameter zwischen Sample und Zielpopulation
– Betrifft Stichprobenziehung, Nicht-Teilnahme, Drop-Out – Besonderes Problem: „Conditioning on a collider“
Confounding Bias
Verzerrung des Zusammenhangs durch gemeinsame Ursachen
- tritt auf, wenn eine dritte Variable sowohl mit der unabhängigen Variable als auch der abhängigen Variable korreliert
und die beobachtete Assoziation zwischen ihnen dadurch verzerrt wird.
Measurement Bias:
-Ausmaß, in dem der Messwert von wahrem Wert abweicht.
-Zugehörige Begriffe: „Recall Bias“, „Reporting Bias“
– Auch das Einhalten von Konventionen (Kappa = .7 als „good measurement“ kann mitgroßem Bias einhergehen, z.B. weil auch Kontrollvariablen ohne Messfehler gemessen sein müssten
Erläutern Sie verschiedene „Fehler“ bei der Auswahl von Kontrollvariablen: Collider, Intermediate Variablen, Kollinearitä
Die Auswahl von Kontrollvariablen in statistischen Analysen ist entscheidend, um Verzerrungen zu minimieren und genaue Ergebnisse zu erhalten. Allerdings gibt es verschiedene Fehler, die bei der Auswahl von Kontrollvariablen auftreten können, darunter Collider, Intermediate Variablen und Kollinearität.
Collider (Bedingung auf einen Collider):
ist eine Variable, auf die bedingt wird und die von zwei anderen Variablen beeinflusst wird. Wenn man auf einen Collider bedingt, kann dies zu einer scheinbaren Assoziation zwischen den beiden anderen Variablen führen.
Warum ist das ein Fehler? Wenn man auf einen Collider bedingt, der mit der abhängigen Variable und der unabhängigen Variable in Zusammenhang steht, kann dies eine Scheinkorrelation erzeugen und zu irreführenden Schlussfolgerungen führen.
Intermediate Variablen (Mediatorvariablen):
die zwischen der unabhängigen und der abhängigen Variable stehen und als "Mediatoren" oder Vermittler wirken.
Warum ist das ein Fehler? Wenn man eine Variable als Kontrollvariable hinzufügt, die eine Intermediate Variable ist (also durch die die Wirkung der unabhängigen Variable auf die abhängige Variable geht), kann dies zu einer Überkontrolle führen. Die Beziehung zwischen der unabhängigen und der abhängigen Variable wird dadurch möglicherweise fälschlicherweise als nicht signifikant interpretiert.
Kollinearität:
tritt auf, wenn zwei oder mehr Variablen in einer Analyse stark miteinander korreliert sind. Perfekte Kollinearität bedeutet, dass eine Variable genau durch eine andere erklärt werden kann.
Warum ist das ein Fehler? Kollinearität kann die Stabilität von Schätzungen beeinträchtigen und zu großen Standardfehlern führen. Es wird schwierig, die unabhängige Wirkung jeder einzelnen Variable zu isolieren, da sie miteinander "verwoben" sind.
Stellen Sie folgende Variablenbeziehungen als kausale Graphen dar: Mediation, Gemeinsame Ursache, Gemeinsame Folge (collider), nicht beobachtbare gemeinsame Ursache
Erklären Sie anhand eines kausalen Graphen, warum Randomisierung der UV jeglichen Confounding Bias aufhebt.
Kausaler Graph:
Angenommen, Sie untersuchen den Effekt einer unabhängigen Variable (UV), beispielsweise eine bestimmte medizinische Behandlung (A), auf eine abhängige Variable (DV), wie die Genesung von Patienten (B). Es gibt jedoch eine dritte Variable (C), die sowohl die Behandlung als auch die Genesung beeinflussen könnte. Dies könnte zum Beispiel das Gesundheitsbewusstsein der Patienten sein.
C (Gesundheitsbewusstsein) --> A (Behandlung) --> B (Genesung)
In diesem Graphen zeigt der Pfeil von C zu A, dass das Gesundheitsbewusstsein die Behandlung beeinflussen kann. Der Pfeil von A zu B repräsentiert den Effekt der Behandlung auf die Genesung.
Confounding Bias:
Wenn Sie keine Randomisierung durchführen und das Gesundheitsbewusstsein (C) nicht kontrollieren oder zufällig verteilen, könnte es zu Confounding Bias kommen. Personen mit einem höheren Gesundheitsbewusstsein könnten eher die Behandlung wählen und auch eher eine bessere Genesung aufweisen. Ohne Kontrolle für C könnte man fälschlicherweise annehmen, dass die Behandlung (A) direkt für die verbesserte Genesung (B) verantwortlich ist.
was genau bedeutet ein p wert von .238
- Unter Annahme der H0, beträgt die Wahrscheinlichkeit, dass die Daten so oder extremer zustande kommen 23,8%.
- Ein kleiner p-Wert sagt uns, dass unsere Daten ungewöhnlich sind, wenn alle Annahmen zutreffen, ABER die H0 ist nur eine dieser Annahmen
- mögliche Gründe für einen großen p-Wert:
-Die H0 ist richtig
- Das Studienprotokoll wurde verletzt
- Große Zufallsfehler
- Die Annahmen des statistischen Modells stimmen nicht
- Die Verfahren messen nicht das, was sie messen sollen...
Was sind Probleme bei der Interpretation von P-Werten?
Probleme bei der Interpretation von p-Werten:
Starre Schwellenwerte: Feste Grenzen (z. B. 0,05) können zu Schwarz-Weiß-Denken führen.
Fehlende Kontextualisierung: p-Werte geben keine Informationen über die Größe oder Praktikabilität eines Effekts.
Kumulative Natur: Wiederholte Tests können zu falsch positiven Ergebnissen führen. Typ I Fehler
Vorteile von Konfidenzintervallen:
Bereich der Plausibilität: Gibt einen Bereich möglicher Effekte an.
Berücksichtigung der Unsicherheit: Zeigt die Präzision der Schätzung.
Berücksichtigung der Praktischen Bedeutung: Hilft bei der Bewertung der klinischen Relevanz.
Bessere Kommunikation: Gibt mehr Kontext und Details für eine umfassendere Interpretation.
Statistische Vorgehensweisen bei kleinen Stichproben:
Konfidenzintervalle verwenden: Bieten einen Bereich möglicher Effekte.
Nichtparametrische Tests: Verwenden, wenn Annahmen parametrischer Tests nicht erfüllt sind.
Bootstrapping: Resampling-Technik zur Unsicherheitsschätzung.
Bayesianische Statistik: Kombiniert vorhandenes Wissen mit neuen Daten.
Effektstärken betonen: Fokussieren auf Effektgröße und deren Konfidenzintervalle.
Graphische Darstellungen: Visualisieren von Datenmuster und Trends.
Kleine Stichproben anerkennen: Vorsichtig mit Schlussfolgerungen sein, begrenzte Aussagekraft berücksichtigen.
Kombinieren von Studien: Meta-Analyse, um Aussagekraft zu erhöhen.
erklären sie das vorgehen beim prospensity score matching
Propensity Score Matching (PSM):
Das Propensity Score Matching ist eine Methode in der Statistik, um sicherzustellen, dass vergleichbare Gruppen in einer nicht-randomisierten Studie erstellt werden. Hier ist das grundlegende Vorgehen:
Propensity Score Schätzung:
Propensity Score ist die Wahrscheinlichkeit, dass ein Individuum der Behandlungsgruppe zugeordnet wird, basierend auf beobachtbaren Merkmalen.
Schätzen Sie den Propensity Score durch Anwendung von statistischen Methoden wie Logistischer Regression, Entscheidungsbaum oder Nearest-Neighbor-Matching auf vorhandene Daten.
Matching:
Paare von behandelten (Treat) und nicht-behandelten (Control) Einheiten werden basierend auf ihren Propensity Scores gebildet.
Verschiedene Matching-Algorithmen können verwendet werden, darunter Nearest-Neighbor-Matching, Kernel-Matching oder Exakte Matching, um ähnliche Propensity Scores zu gewährleisten.
Balance Check:
Überprüfen Sie die Balance der beobachtbaren Merkmale zwischen den behandelten und nicht-behandelten Gruppen nach dem Matching.
Stellen Sie sicher, dass nach dem Matching keine signifikanten Unterschiede zwischen den Gruppen in Bezug auf die gemessenen Merkmale bestehen.
Effektanalyse:
Vergleichen Sie nun die Ergebnisse oder Effekte zwischen den gematchten Gruppen.
Da die gematchten Gruppen in Bezug auf die gemessenen Merkmale ähnlich sind, wird angenommen, dass Unterschiede in den Ergebnissen auf die Behandlung zurückzuführen sind und nicht auf Confounding-Faktoren.
Sensitivitätsanalyse:
Führen Sie Sensitivitätsanalysen durch, um die Robustheit der Ergebnisse zu prüfen, beispielsweise durch Variation der Matching-Methoden oder Einschluss/ Ausschluss von Kontrollvariablen.
Last changeda year ago