Cohens Kappa

Aus PflegeWiki
Version vom 25. Januar 2022, 09:47 Uhr von Elvis.pula.nursit-institute.de (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität, welches Jacob Cohen 1960 vorschlug. == Beschreibung == Beispiel: 2 Rater f…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität, welches Jacob Cohen 1960 vorschlug.

Beschreibung[Bearbeiten | Quelltext bearbeiten]

Beispiel: 2 Rater führen eine Risikoeinschätzung bei 40 Teilnehmern durch.

  • absolute Übereinstimmung: Man addiert die Fälle, in denen beide Rater einen Teilnehmer als "Nicht-Risiko" einschätzen und solche, wo sie beide ein "Risiko" einschätzen.
  • erwartete Übereinstimmung: würden beide Rater per Münzwurf die Risikoeinschätzung durchführen, so würden sie (rein zufällig) in 50% der Fälle übereinstimmen.

Wenn man nun von der absoluten Übereinstimmung die erwarete Übereinstimmung abzieht, so erhält man den Anteil, in welchem die beiden Rater dem Zufall überlegen sind.

Cohens Kappa setzt diese "Überlegenheit" nun in Bezug zu der erwarteten NICHT-Übereinstimmung (beim Münzwurf würden die Rater auch in 50% der Fälle nicht übereinstimmen.

Formel[Bearbeiten | Quelltext bearbeiten]

Die Gleichung für Cohens Kappa lautet:

wobei p(a) der gemessene Übereinstimmungswert der beiden Beobachter und p(e) die zufällig erwartete Übereinstimmung ist.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Herbert Mayer et. al (2004): "Qualitätskriterien von Assessmentinstrumenten - Cohen's Kappa als Maß der Interrater-Reliabilität", in: Pflege (Zeitschrift), 17(1):36-46

Weblinks[Bearbeiten | Quelltext bearbeiten]

  • Kutschmann und Rippin: Diskussion eines Missverständnisses