Gesundheitswesen 2012; 74(10): 645-650
DOI: 10.1055/s-0031-1301269
Originalarbeit
© Georg Thieme Verlag KG Stuttgart · New York

Qualitätssicherung in der Kodierungsbegutachtung von Krankenhausfällen im G-DRG-System

Prüfung der Interrater-Reliabilität bei MDK-GutachternQuality Assurance in Coding Expertise of Hospital Cases in the German DRG SystemEvaluation of Inter-rater Reliability in MDK Expertise
H. Huber*
1   Medizinischer Dienst der Krankenversicherung Westfalen-Lippe (Ärztlicher Direktor: Dr. med. M. Rieger), Münster
,
M. Brambrink*
1   Medizinischer Dienst der Krankenversicherung Westfalen-Lippe (Ärztlicher Direktor: Dr. med. M. Rieger), Münster
,
R. Funk
1   Medizinischer Dienst der Krankenversicherung Westfalen-Lippe (Ärztlicher Direktor: Dr. med. M. Rieger), Münster
,
M. Rieger
1   Medizinischer Dienst der Krankenversicherung Westfalen-Lippe (Ärztlicher Direktor: Dr. med. M. Rieger), Münster
› Author Affiliations
Further Information

Publication History

Publication Date:
12 March 2012 (online)

Zusammenfassung

Ziel:

Ermittlung der Unterschiede des G-DRG-Ergebnisses einer Krankenhausfallprüfung durch 2 unabhängig voneinander kodierende MDK-Gutachter. Berechnung der 2-Interrater-Reliabilität bei der Überprüfung von Kodierungen einzelner Krankenhausfälle. Diskussion der Gründe für nicht übereinstimmende Gutachten und Vorschläge zur Prozessverbesserung.

Methoden:

Aus den Begutachtungsaufträgen des MDK-WL wurde randomisiert eine 0,7% Stichprobe aus 57 375 Gutachtenfällen gezogen. Eine Verteilungsgleichheit mit der Grundgesamtheit wurde mittels X²-Test bzw. Fishers-Exact-Test geprüft. Für diese insgesamt 402 individuellen Krankenhausfälle wurden die G-DRG-Fallpauschalen von 2 Gutachtern des Medizinischen Dienstes der Krankenversicherung (MDK) unabhängig voneinander bestimmt und die Ergebnisse für jeden Einzelfall auf Übereinstimmung vs. Nicht-Übereinstimmung überprüft. Die entsprechenden Konfidenzintervalle wurden mit dem Standardfehler bestimmt. Zusätzlich wurde analysiert, ob bestimmte Major Diagnosis Categories (MDC) -Kapitel statistisch gehäuft von unterschiedlichen Begutachtungsergebnissen betroffen waren.

Ergebnisse:

Bei 280 der insgesamt 402 geprüften Krankenhausfälle kamen die beiden MDK-Prüfer unabhängig voneinander zum gleichen G-DRG-Ergebnis; in 122 Fällen unterschieden sich die ermittelten G-DRG-Fallpauschalen der beiden Gutachter (Übereinstimmung 70%; KI 65,2–74,1). Unterschiedliche DRG-Ergebnisse zwischen den Gutachtern traten im gesamten MDC-Spektrum gleichmäßig auf. Es konnten keine MDC-Kapitel identifiziert werden, die signifikant häufiger von Begutachtungsunterschieden betroffen waren.

Schlussfolgerungen:

Die Ergebnisse unserer Untersuchung zeigen eine fast 70% Übereinstimmung in der Beurteilung von Krankenhausabrechnungen zwischen 2 unabhängig voneinander prüfenden MDK-Gutachtern. Dieses Ergebnis lässt Raum zur Prozessverbesserung. Ergebnisbasiert konnten Optimierungspotenziale identifiziert werden. Als Verbesserungspotenziale wurden in Verbindung mit regelmäßigen Fortbildungen der Ausbau verbindlicher interner Kodierempfehlungen sowie der gutachterliche Austausch kodierungsrelevanter Informationen in internen Foren etabliert. Grundsätzlich eignet sich das vorgestellte Modell für länderübergreifende Untersuchungen in der MDK-Gemeinschaft, mit dem Vorteil, dass durch größere Stichprobenvielfalt und Stichprobenmengen weitere Trends herausgearbeitet werden können.

Abstract

Aim:

The purpose of this study was to evaluate differences in the D-DRG results of a hospital case by 2 independently coding MKD raters. Calculation of the 2-inter-rater reliability was performed by examination of the coding of individual hospital cases. The reasons for the non-agreement of the expert evaluations and suggestions to improve the process are discussed.

Methods:

From the expert evaluation pool of the MDK-WL a random sample of 0.7% of the 57 375 expertises was taken. Distribution equality with the basic total was tested by the χ² test or, respectively, Fisher’s exact test. For the total of 402 individual hospital cases, the G-DRG case sums of 2 experts of the MDK were determined independently and the results checked for each individual case for agreement or non-agreement. The corresponding confidence intervals with standard errors were analysed to test if certain major diagnosis categories (MDC) were statistically significantly more affected by differing expertise results than others.

Results:

In 280 of the total 402 tested hospital cases, the 2 MDK raters independently reached the same G-DRG results; in 122 cases the G-DRG case sums determined by the 2 raters differed (agreement 70%; CI 65.2–74.1). Different DRG results between the 2 experts occurred regularly in the entire MDC spectrum. No MDC chapter in which significant differences between the 2 raters arose could be identified.

Conclusion:

The results of our study demonstrate an almost 70% agreement in the evaluation of hospital cost accounts by 2 independently operating MDK. This result leaves room for improvement. Optimisation potentials can be recognised on the basis of the results. Potential for improvement was established in combination with regular further training and the expansion of binding internal code recommendations as well as exchange of code-relevant information among experts in internal forums. The presented model is in principle suitable for cross-border examinations within the MDK system with the advantage that further trends could be uncovered by more variety and larger numbers of the randomly selected cases.

*

*  M. Brambrink und H. Huber sind an der Erstellung dieser Arbeit gleichermaßen beteiligt


 
  • Literatur

  • 1 Institut für das Entgeltsystem im Krankenhaus GmbH (InEK) Siegburg, Germany: G-DRG German Diagnosis Related Groups Version 2010/2011. Definitionshandbuch Band 1.
  • 2 Malzahn J, Handschuh T. (AOK Bundesverband): Zahlen für den Rechnungscheck?. Gesundheit und Gesellschaft 2009; 12 (06) 14-15
  • 3 Fiori W, Bunzemeier H, Brüning K et al. Abrechungsbetrug der Krankenhäuser – Tatsache oder Fiktion. Das Krankenhaus 2010; 1: 17 -32
  • 4 Stausberg J, Lehmann N. Kodierübungen im Medizinstudium: Wie gut kodieren Anfänger Diagnosen mit der ICD-10. GMS Med Inform BiomEpidemiol 2005; 1 (01) Doc04
  • 5 Misset B, Nakache D, Vesin A et al. Reliability of diagnostic coding in intensive care patients. Crit Care 2008; 12 (04) R95 Epub 2008 Jul 29
  • 6 Stausberg J, Lehmann N, Kaczmarek D et al. Reliability of diagnoses coding with ICD-10. Int J Med Inform 2008; 77 (01) 50-57
  • 7 Cohen J. A coefficient of agreement for nominal scales. Educat Psychol Measurem 1960; 20: 37-46