Wann wird Fleiss’ Kappa verwendet?
Wenn mehr als 2 Rater vorliegen
Mittlere Konkordanz aller Rater über alle Objekte
kann wie Cohens Kappa interpretiert werden, Gewichtung aber nicht möglich
in neuerern SPSS-Versionen standardmäßig bei “Reliabilitätsanalyse” interpretiert
Was versteht man unter dem bei JASP verfügbaren Maß “Krippendorffs Alpha”?
verallgemeinertes Übereinstimmungsmaß für nominale, ordinale und auch metrische Kategoriensysteme für 2 oder mehr Rater
Was wird aufgrund von Problemen mit dem Kappa-Koeffizienten empfohlen?
andere Koeffizienten zu verwenden (z.B. für dichotome Ratingskalen und 2 rater das OR)
Welches Maß ist für metrische Ratingskalen gebräuchliches Maß der Interreliabilität?
die Intraklassenkorrelation
Wodurch ist Intraklassenkorrelation gekennzeichnet?
Maß der Varianzaufklärung (Eta^2; Wertebereich 0 bis 1)
für 2 oder mehr rater geeignet
erlaubt Bestimmung von absoluter oder relativer Gleichheit von Urteilen
in JASP möglich
spielt ebenso bei Multilevel-Modellen eine Rolle
Zuletzt geändertvor 6 Monaten