Erklären Sie die verschiedenen Arten von Bias.
selection bias: Differenz im untersuchten Parameter zwischen SP Sample und Zielpopulation -> die Untersuchungsgruppen sind nicht vergleichbar und beinhalten (systematische) Unterschiede , betrifft die SP Ziehung, Nicht-Teilnahem und Drop Out
mesurement bias: empirischer/ wahrer Wert weicht vom gemessenem Wert ab, mglw. aufgrund von schlechtem Messintrument (nicht valide/reliabel genug) -> Differenz zwi. wahren und gemessenem Wert (hohe Residuen); Recall Bias, Reporting Bias
confounding bias: gemeinsame Ursache führt zu Scheinzusammenhang, obwohl es ihn in echt nicht gibt -> Verzerrung des Zusammenhangs; häufig veruscht durch Kontrollvariablen zu reduzieren , auch Probleme, zb Conditioning on a colider
Wonach sollte man entscheiden, nach welchen Variablen man kontrolliert, um Confounding Bias zu erhöhen? Was sind mögliche Probleme beim Kontrollieren? Wann könnte Kontrollieren den Bias sogar erhöhen?
um den Confounding Bias zu erhöhen, müsste man nach der:
instrumental VAriable kontrollieren (Ursache für UV, geht UV voraus) -> kontrolliert man nach dieser Variable, kann es sein, dass mögliche Confounder stärkeren Einfluss haben
intermediate Variable: kontrolliert man nach dieser Variable, blockiert man ja den Zusammenhang/ die Assoziation zwischen UV und AV , sie ist die Variable auf dem kausalen Pfad
collider Variable: eine gemeinsame Ursache aus 2 Variablen (also aus UV udn AV zb). Kontrolliert man (nur) den Collider, macht man möglicherweise neue Pfade auf und es kann zu Scheinzusammenhängen führen
mögliche weitere Probleme:
Multikollinearität der UVs bzw vieler Variablen die kovariieren
man könnte den Bias erhöhren, wenn man zb auch ganz viele Variablen kontrolliert und wenn die Variablen untereinander hoch korreliert sind
Empfehlungen, um Confounding bias gering zu halten:
alle Kovariaten a priori festlegen
so wenig Kontrollvariablen wie möglich und so unkorreliert wie möglich
nur nach backdoor criterion kontrollieren, das reicht !
Stellen Sie folgende Variablenbeziehungen als kausale Graphen dar: Mediation, Confounder, Collider
Mediator:
Confounder: (gemeinsame Ursache)
Collider:
Erklären Sie anhand eines kausalen Graphen, warum Randomisierung der UV (wenn Sie funktioniert) jeglichen Confounding Bias aufhebt.
durch die Randomisierung der UV hebe ich den Confounder Einfluss auf die UV komplett auf, der Confounder hat somit nur noch Einfluss auf die AV und ist somit kein Confounder mehr, da keien gemeinsame Ursache für AV und UV
Was genau bedeutet ein p-Wert von p=.238?
Achtung: p ist die bedingte Wahrscheinlichkeit der Daten (einer bestimmten Teststatistik) unter der Bedingung, dass die Nullhypothese zutrifft/ wahr ist.
das bedeutet, dass ein kleiner p-Wert uns sagt, dass unsere Daten (Ergebnisse) relativ ungewöhlich sind, wenn alle Annahmen (auch Nullhypothese) zutreffen, Nullhypothese ist NUR eine dieser Annahmen
ein p-Wert von p= .238 ist vermutlich größer als alpha (wenn zb alpha=0.05)
Dieser p-Wert gibt an, dass unsere Daten unter der Annahme der Nullhypothese (zb es zeigt sich kein Effekt) relativ gewöhnlich sind
-> Die bedingte Wahrscheinlichkeit der Daten spricht gegen eine Ablehnung der Nullhypothese
weitere Gründe:
Nullhypthese trifft zu
großer Zufallsfehler
Studienprotokoll wurde verletzt
Annahmen des stat. Modells stimmen nicht
VErfahren messen nicht das, was sie messen sollen
Nennen Sie Probleme bei der Interpretation von p-Werten. Welche Vorteile haben demgegenüber Konfidenzintervalle?
Forschungsergebnisse werden in genau 2 Zustände eingeteilt: Dichotomisierung
Abhängigkeit vom Signifikanzniveau
fehlende Kontextualisierung
-> keine praktische BEdeutung des Effekts
fehlende Evidenz für Nullhypothese
unnötige Komplexitätsreduktion
Erschweren der Vergleichbarkeit von Forshcungsergebnissen
sehr unrobust gegenüber kleine MEthodik Verändeurngen oder kleinen SP o. Datenausreißer
Warum ist KI besser:
keine Dichotomisierung von Forschungsergebnisse: man erhält ein breiteres “Intervall”-> Forschungsergebnisse werden nicht in nur 2 Zustände eingeteilt
mehr praktische Relevanz
Kontextualisierung möglich
auf einen Schlag Infos über interessierenden Schätzwer und dessen Zuverlässigkeit
relativ robust gegenüber MEthodik-Verändeurngen und Datenausreißer
Was sind mögliche statistische Vorgehensweisen bei kleinen Stichproben?
exakte Verfahren: Fishers exact test, exakte Regression
Bootstrapping
Bayes Statistik
Was sind mögliche Vorgehensweisen bei Verletzung von Voraussetzungen bei Methoden des Allgemeinen Linearen Modells?
Wo könnten die Verletzungen sein?
Verletzungen der Normalverteilung
Verletzungen der Gleichheit von Varianzen
Verletzungen linerarer , additiver Zusammenhänge
—> führen zu geringer Power , Verzerrungen von p - Werten
Ausreißer (in Verteilunen und Assoziationen)
-> Verletzung der Gleicheit der Residuen
mögliche Lösung: robuste Standardfehler/KI
Schätzung mittels Huber White Sandwich Matrix
nicht geeignet bei kleinen SP
breitere KI: wenn Modellannahmen stimmen, dann Konventionelle Methode verwenden
-> Verletzung der Normalverteilung?
Transformieren der AV, zum Beispiel Logarithmieren
alternativ: generelaisierte linerare Modelle mit anderen Verteilungsannahmen , zb Gamma Regression
-> Verletzungen des linearen, additiven Modells/Zusammenhänge
non-parametrische Regression verwenden
(Anders als bei parametrischen Regressionstechniken wie der linearen Regression, bei der eine bestimmte funktionale Form angenommen wird (z.B. eine lineare Beziehung zwischen den Variablen), lässt eine nichtparametrische Regression die Form der Beziehung offen und passt sich flexibler an die Daten an.)
-> 1) ausreißer in Verteilungen
-> 2) ausreißer in Assoziationen
1) Ausreißer in Verteilungen (in einer Variable, z.B. Trinkmenge):
Bereinigung nach inhaltlichen Gesichtspunkten (PLAUSIBILITÄT)-> für viele Variablen gut möglich!
2) Ausreißer in Assoziationen (zwischen 2 oder mehreren Variablen):
einz. Beobachtungen mit großen Residuen
Verzerrung von Assoziationen als Folge
mögliche Lösung: robuste Regression (nicht zu verwechseln mit robusen Standardfehler, wie bei Gleichverteilung der Residuen!)
gewichtet Ausreißer hinsichtlich des Zusammenhangs herunter
JEDER AUSREIßER SOLLTE INHALTLICH HINTERFRAGT WERDEN
• Erklären Sie das Prinzip beim Propensity Score Matching.
Erklärung: Wenn ich ein nicht-randomisertes Experiment durchführe, da ich z.B. aus ethischen Gründen keine Randomiserung in 2 versch. Versuchsgruppen machen kann, kann ich das Propensity Score Matching anwenden
Der PS ist die bedingte (vorhergesagte) Wahrscheinlichkeit, eine best. Behandlung/Inervention zu erhalten aufgrund bestimmter MErkmale (background characteristics der Versuchsperson)
beim PSM werden also nicht von den Forschenden die Gruppen randomisert eingeteilt, sondern z.B. aufgrund von Beobachtungen zugeteilt (manche VPn bekommen die Behandlungen, andere nicht)
die Forscher berechnen für jeden TNM den PS, also wie wahrscheinlich es ist, dass er eine best. behandlung erhält, aufgrund seiner best. Merkmale (in der EG)
nach der BErechnung suchen die Forscher PAt. aus der KG (die also nicht die Behandlung bekommen) die ähnliche PS haben wie die aus der EG und matchen ähnliche Paare (Nearest Neighbor Matching) (->Sie versuchen also, Patienten zu finden, die in Bezug auf ihre Eigenschaften wie Alter, Geschlecht, Krankengeschichte usw. ähnlich sind, aber unterschiedliche /andere/ keine Behandlungen erhalten haben (das wäre die beobachtete KG)
Nachdem die Pat./PBN gematcht wurden,. vergleichen die Forscher die gematchten Paare hinsichtlich des zu unetrsuchenden Effekts (z.B. könnte das Herzleistung sein oder ähnliches)
—> Hat die Behandlung tatsächlichen Effekt auf die Herzleistung?
Durch die Verwendung von Propensity Score Matching versuchen die Forscher sicherzustellen, dass die Patienten in den Behandlungs- und Kontrollgruppen so ähnlich wie möglich sind, damit sie den Effekt des Medikaments genauer untersuchen können
Last changed10 months ago