Zusammenfassung
Ziel:
Ermittlung der Unterschiede des G-DRG-Ergebnisses einer Krankenhausfallprüfung durch
2 unabhängig voneinander kodierende MDK-Gutachter. Berechnung der 2-Interrater-Reliabilität
bei der Überprüfung von Kodierungen einzelner Krankenhausfälle. Diskussion der Gründe
für nicht übereinstimmende Gutachten und Vorschläge zur Prozessverbesserung.
Methoden:
Aus den Begutachtungsaufträgen des MDK-WL wurde randomisiert eine 0,7% Stichprobe
aus 57 375 Gutachtenfällen gezogen. Eine Verteilungsgleichheit mit der Grundgesamtheit
wurde mittels X²-Test bzw. Fishers-Exact-Test geprüft. Für diese insgesamt 402 individuellen
Krankenhausfälle wurden die G-DRG-Fallpauschalen von 2 Gutachtern des Medizinischen
Dienstes der Krankenversicherung (MDK) unabhängig voneinander bestimmt und die Ergebnisse
für jeden Einzelfall auf Übereinstimmung vs. Nicht-Übereinstimmung überprüft. Die
entsprechenden Konfidenzintervalle wurden mit dem Standardfehler bestimmt. Zusätzlich
wurde analysiert, ob bestimmte Major Diagnosis Categories (MDC) -Kapitel statistisch
gehäuft von unterschiedlichen Begutachtungsergebnissen betroffen waren.
Ergebnisse:
Bei 280 der insgesamt 402 geprüften Krankenhausfälle kamen die beiden MDK-Prüfer unabhängig
voneinander zum gleichen G-DRG-Ergebnis; in 122 Fällen unterschieden sich die ermittelten
G-DRG-Fallpauschalen der beiden Gutachter (Übereinstimmung 70%; KI 65,2–74,1). Unterschiedliche
DRG-Ergebnisse zwischen den Gutachtern traten im gesamten MDC-Spektrum gleichmäßig
auf. Es konnten keine MDC-Kapitel identifiziert werden, die signifikant häufiger von
Begutachtungsunterschieden betroffen waren.
Schlussfolgerungen:
Die Ergebnisse unserer Untersuchung zeigen eine fast 70% Übereinstimmung in der Beurteilung
von Krankenhausabrechnungen zwischen 2 unabhängig voneinander prüfenden MDK-Gutachtern.
Dieses Ergebnis lässt Raum zur Prozessverbesserung. Ergebnisbasiert konnten Optimierungspotenziale
identifiziert werden. Als Verbesserungspotenziale wurden in Verbindung mit regelmäßigen
Fortbildungen der Ausbau verbindlicher interner Kodierempfehlungen sowie der gutachterliche
Austausch kodierungsrelevanter Informationen in internen Foren etabliert. Grundsätzlich
eignet sich das vorgestellte Modell für länderübergreifende Untersuchungen in der
MDK-Gemeinschaft, mit dem Vorteil, dass durch größere Stichprobenvielfalt und Stichprobenmengen
weitere Trends herausgearbeitet werden können.
Abstract
Aim:
The purpose of this study was to evaluate differences in the D-DRG results of a hospital
case by 2 independently coding MKD raters. Calculation of the 2-inter-rater reliability
was performed by examination of the coding of individual hospital cases. The reasons
for the non-agreement of the expert evaluations and suggestions to improve the process
are discussed.
Methods:
From the expert evaluation pool of the MDK-WL a random sample of 0.7% of the 57 375
expertises was taken. Distribution equality with the basic total was tested by the
χ² test or, respectively, Fisher’s exact test. For the total of 402 individual hospital
cases, the G-DRG case sums of 2 experts of the MDK were determined independently and
the results checked for each individual case for agreement or non-agreement. The corresponding
confidence intervals with standard errors were analysed to test if certain major diagnosis
categories (MDC) were statistically significantly more affected by differing expertise
results than others.
Results:
In 280 of the total 402 tested hospital cases, the 2 MDK raters independently reached
the same G-DRG results; in 122 cases the G-DRG case sums determined by the 2 raters
differed (agreement 70%; CI 65.2–74.1). Different DRG results between the 2 experts
occurred regularly in the entire MDC spectrum. No MDC chapter in which significant
differences between the 2 raters arose could be identified.
Conclusion:
The results of our study demonstrate an almost 70% agreement in the evaluation of
hospital cost accounts by 2 independently operating MDK. This result leaves room for
improvement. Optimisation potentials can be recognised on the basis of the results.
Potential for improvement was established in combination with regular further training
and the expansion of binding internal code recommendations as well as exchange of
code-relevant information among experts in internal forums. The presented model is
in principle suitable for cross-border examinations within the MDK system with the
advantage that further trends could be uncovered by more variety and larger numbers
of the randomly selected cases.
Schlüssekwörter G-DRG-System - Kodierungsprüfung - Kodierungsbegutachtung - Krankenhausfälle - Interrater-Reliabilität
- Medizinischer Dienst der Krankenversicherung
Key words Diagnosis related Groups - DRG - expert evaluation - interrater agreement - hospital
cases - medical service of statutory health insurance