Notfall & Hausarztmedizin 2008; 34(12): 586-590
DOI: 10.1055/s-0029-1202138
Schwerpunkt

© Georg Thieme Verlag Stuttgart · New York

Diagnosenklassifikation in der Allgemeinpraxis – SESAM-Studie untersucht Reliabilität der ICD-10-Klassifikation

Classification of diagnoses by general practitioners – SESAM-Study investigates reliability of ICD 10 classificationRosemarie Wockenfuß1 , Kristin Herrmann2 , Melanie Claußnitzer2 , Hagen Sandholzer2 ,  SESAM Study Investigators2
  • 1Fachärztin für Allgemeinmedizin, Döbeln
  • 2Selbständige Abteilung für Allgemeinmedizin, Universität Leipzig(Leiter: Prof. Dr. med. Hagen Sandholzer)
Further Information

Publication History

Publication Date:
19 January 2009 (online)

Die ICD-10 wird seit dem 01.01.2000 zur Verschlüsselung von Diagnosen in der ambulanten und stationären Versorgung eingesetzt. Bei deren Anwendung stellt sich immer wieder die Frage, in welcher Diagnosetiefe verschlüsselt werden soll und ob 2 Ärzte bei dem gleichen Patienten zu denselben Ergebnissen in der Codierung kommen. Die SESAM-Studie untersuchte daher mithilfe der Interrater-Reliabilität das Ausmaß dieser Übereinstimmung bei Bestandsdiagnosen (Dauerdiagnosen). Dazu trugen 209 in Sachsen und Thüringen niedergelassene Hausärzte die Daten von 8 877 Patienten zusammen. Notiert wurde der Beratungsanlass in den eigenen Worten des Patienten sowie die Beratungsergebnisse und Verordnungen. Das gleiche Datenmaterial wurde parallel, also immer von 2 Ratern, verschlüsselt. Die Beurteilung der Reliabilität erfolgte durch „Kappa“, ein allgemein akzeptiertes Maß der Übereinstimmungsgüte. Auf Kapitelebene konnte mit Kappa > 0,61 in 14 von 20 Kapiteln eine hohe Übereinstimmung der Raterurteile bei Verschlüsselung der bekannten Dauerdiagnosen festgestellt werden. Bei dreistelliger Verschlüsselung ergab sich eine Übereinstimmung in 2 der Kapitel und bei vierstelliger Verschlüsselung in keinem Kapitel. Aufgrund der guten Übereinstimmung auf Kapitelebene lautet die Schlussfolgerung der Studie, dass in der Primärversorgung kleine und einfache Terminologien besser geeignet sind, da durch Verfeinerung der Verschlüsselung die Fehlerquote zunimmt.

ICD 10 has been in use since 2000–01.01 for coding diagnoses of outpatients and inpatients, especially for the purpose of standardizing medical fees. The question continually arises how the coding should be applied to diagnostic approaches of varying depth and whether two doctors arrive at the same diagnosis for one particular patient. Hence, the SESAM study investigated the degree of this agreement in case of permanent diagnoses by employing the principle of interrater reliability checking.

For this purpose, 209 GP's resident in Saxony and Thuringia assessed the data of 8877 patients. They noted the reasons why the patients had consulted them in the patients' own words as well as the results of the consultation and the subsequent prescriptions. The same data were always coded simultaneously by two different investigators. The reliability was assessed by means of “kappa“, which is a generally accepted measure of the reliability of a comparison. Taking one chapter heading of the diagnosis as basis, excellent agreement between the investigators was obtaioned (14 out of 20), kappa being greater than 0,61 when coding the permanent diagnoses, whereas with three diagnostic digits there was agreement between two headings and with four digits there was no agreement. Basing on the good agreement obtained when only one diagnostic terminology was employed, it was concluded that in primary care of a patient the use of one straightforward teminology is of greater advantage, whereas the rate of error increases when coding becomes more elaborate.

Literatur

  • 1 Koch H, Graubner B, Brenner G.. Erprobung der Diagnosenverschlüsselung mit der ICD-10 in der Praxis des niedergelassenen Arztes. ZI für die kassenärztliche Versorgung in der BRD. Wissenschaftliche Reihe Band 54. Köln: Deutscher Ärzte-Verlag 1998
  • 2 Landis JR, Koch GG.. The measurement of observer agreement for categorical data.  Biometrics. 1977;  33 159-174
  • 3 Bernstein RM, Hollingworth GR, Viner G. et al. . Reliability Issues in Coding Encounters in Primary Care Using an ICPC/ICD-10-based Controlled Clinical Terminology.  J Amer Medical Informatics Assoc Symposium Supplement. 1997;  21
  • 4 Surján G.. Questions on validity of International Classification of Diseases-coded diagnoses.  Int J Med Inform. 1999;  54 77-95
  • 5 Stausberg J, Lehmann N, Kaczmarek D, Stein M.. Reliability of diagnoses coding with ICD-10.  Int J Med Inform. 2008;  77
  • 6 Stausberg J, Lehmann N, Kaczmarek D, Stein M.. Einheitliches Kodieren in Deutschland: Wunsch und Wirklichkeit.  das Krankenhaus. 2005;  8 657-662
  • 7 Stausberg J, Lehmann N.. Kodierübungen im Medizinstudium. Wie gut kodieren Anfänger mit der ICD-10?.  GMS Med Inform Biom Epidemiol. 2005;  1
  • 8 Vikström A, Skånér Y, Strender LE, Nilsson GH.. Mapping the categories of the Swedish primary health care version of ICD-10 to SNOMED CT concepts: rule development and intercoder reliability in a mapping trial.  BMC Med Inform Decis Mak. 2007;  7 9
  • 9 Skovgaard AM, Houmann T, Christiansen E, Andreasen AH.. The reliability of the ICD-10 and the DC 0–3 in an epidemiological sample of children 1œ years of age.  Infant Mental Health Journal. 2005;  5 470-480
  • 10 Siebel U, Michels R, Hoff P. et al. . Multiaxiales System des Kapitels V(F) der ICD-10. Erste Ergebnisse der multizentrischen Praktikabilitäts- und Reliabilitätsstudie.  Nervenarzt. 1997;  68 231-238
  • 11 Nilsson G, Petersson H, Ahlfeldt H, Strender LE.. Evaluation of three Swedish ICD-10 primary care versions: reliability and ease of use in diagnostic coding.  Methods Inf Med. 2000;  39 325-331
  • 12 Goldstein LB, Jones MR, Matchar DB. et al. . Improving the reliability of stroke subgroup classification using the Trial of ORG 10172 in Acute Stroke Treatment (TOAST) criteria.  Stroke. 2001;  32 1091-1098
  • 13 Hiller W, Dichtl G, Hecht H. et al. . An empirical comparison of diagnoses and reliabilities in ICD-10 and DSM-III-R.  Eur Arch Psychiatry Clin Neurosci. 1993;  242 209-217
  • 14 Nicholls D, Chater R, Lask B.. Children into DSM don't go: a comparison of classification systems for eating disorders in childhood and early adolescence.  Int J Eat Disord. 2000;  28 317-324
  • 15 Willemse GR, van Yperen TA, Rispens J.. Reliability of the ICD-10 classification of adverse familial and environmental factors.  J Child Psychol Psychiatry. 2003;  44 202-213
  • 16 Gibson N, Bridgman SA.. A novel method for the assessment of the accuracy of diagnostic codes in general surgery.  Ann R Coll Surg Engl. 1998;  80 293-296
  • 17 Henderson T, Shepheard J, Sundararajan V.. Quality of diagnosis and procedure coding in ICD-10 administrative data.  Med Care. 2006;  44 1011-1019
  • 18 Humphries KH, Rankin JM, Carere RG. et al. . Co-morbidity data in outcomes research: are clinical data derived from administrative databases a reliable alternative to chart review?.  J Clin Epidemiol. 2000;  53 343-349
  • 19 QUAN H, PARSONS GA, GHALI WA.. Validity of Information on Comorbidity Derived From ICD-9-CCM Administrative Data.  Journal of Clinical Epidemiology. 2000;  53 343-349
  • 20 QUAN H, PARSONS GA, GHALI WA.. Validity of Procedure Codes in International Classification of Diseases, 9th revision. Clinical Modification Administrative Data.  Med Care. 2004;  42 801-809

Korrespondenz

Dipl.-med. Rosemarie Wockenfuß

Fachärztin für Allgemeinmedizin

Leipziger Straße 49

04720 Döbeln

Fax: 03431/572720

Email: wockenfusz@t-online.de

    >