Rehabilitation (Stuttg) 2007; 46(6): 370-377
DOI: 10.1055/s-2007-976535
Originalarbeit

© Georg Thieme Verlag KG Stuttgart · New York

Analyse der Beurteilerübereinstimmung für kategoriale Daten mittels Cohens Kappa und alternativer Maße

Analyzing Interrater Agreement for Categorical Data Using Cohen's Kappa and Alternative CoefficientsM. Wirtz 1 , M. Kutschmann 2
  • 1Institut für Psychologie, Pädagogische Hochschule Freiburg
  • 2Fakultät für Gesundheitswissenschaften, Universität Bielefeld
Further Information

Publication History

Publication Date:
11 January 2008 (online)

Preview

Zusammenfassung

In der Rehabilitation stellen Beurteilungen eine der wichtigsten Datenerhebungsmethoden dar. Beispielsweise werden durch Behandler häufig kategoriale Beurteilungen vorgenommen, die Aufschluss darüber geben sollen, ob ein bestimmtes Merkmal vorliegt oder nicht (dichotomes Antwortformat) oder welche von mehreren Alternativen für einen Patienten zutrifft (polytomes Antwortformat). Die Übereinstimmung zwischen verschiedenen Beurteilern ist eine wichtige Voraussetzung, damit die gewonnenen Daten zuverlässige und aussagekräftige Informationen über die Patienten enthalten können. Cohens κ (Cohens Kappa) ist das am häufigsten eingesetzte Maß, wenn diese Übereinstimmung überprüft werden soll. In diesem Beitrag wird gezeigt, welche Eigenschaften Cohens κ besitzt und unter welchen Bedingungen es verwendet werden kann. Bei der Interpretation von Cohens κ werden häufig Probleme dieser Maßzahl nicht berücksichtigt, sodass irreführende Schlussfolgerungen resultieren können. So kann die Ausprägung von Cohens κ auch von Informationsaspekten - wie z. B. der Grundhäufigkeit eines Merkmals - beeinflusst werden, die unabhängig von der Güte der Beurteiler sind. Daher werden für dichotome Antwortformate alternative Evaluationsstrategien skizziert, die eine differenziertere und aussagekräftigere Analyse der Beurteilerübereinstimmung ermöglichen. Abschließend wird gezeigt, wie für polytome Antwortformate durch das gewichtete Cohens κω die Analyse der Beurteilerübereinstimmung erfolgen kann.

Abstract

Within rehabilitation research ratings are one of the most frequently used assessment procedures. For example, therapists frequently make categorical judgements aiming to get information whether specific patient characteristics prevail or not (dichotomous rating format) or which of several alternatives holds for a patient (polytomous rating format). Interrater agreement is an important prerequisite to ensure that reliable and meaningful information concerning patients’ state can be inferred from the data obtained. Cohen's κ (Cohen's kappa) is the most frequently used measure to quantify interrater agreement. The properties of Cohen's κ are characterized and conditions for the appropriate application of κ are clarified. Because sometimes specific properties of κ are not appropriately considered, misleading interpretations of this measure may easily arise. This is the case because the value of Cohen's κ is affected by information aspects that are independent of the quality of the rating process. In order to avoid such misconceptions, alternative evaluation strategies are described for dichotomous rating formats which enhance agreement analysis and thus ensure a more valid interpretation. In addition, it is shown how weighted Cohen's κω may be used to analyze polytomous rating formats.

Literatur

1 In den Beispielen A bis C liegt der Wert von ι bei -0,11, 0,52 bzw. 0,60.

2 9,50 ist derjenige Wert, der sich ohne Rundungsungenauigkeiten ergeben würde.

3 Es gilt stets: Y≥κ.

Korrespondenzadresse

Prof. Dr. Markus Wirtz

Institut für Psychologie

Pädagogische Hochschule Freiburg

Kunzenweg 21

79117 Freiburg

Email: markus.wirtz@ph-freiburg.de