Rofo 2021; 193(02): 160-167
DOI: 10.1055/a-1178-1113
Health Policy and Evidence Based Medicine

Time Requirement and Feasibility of a Systematic Quality Peer Review of Reporting in Radiology

Zeitaufwand und Machbarkeit einer systematischen Qualitätsbeurteilung radiologischer Befunde
Martin H. Maurer
1   Department of Diagnostic, Interventional and Paediatric Radiology, Inselspital, Bern Universtity Hospital, University of Bern, Switzerland
,
Michael Brönnimann
1   Department of Diagnostic, Interventional and Paediatric Radiology, Inselspital, Bern Universtity Hospital, University of Bern, Switzerland
,
Christophe Schroeder
1   Department of Diagnostic, Interventional and Paediatric Radiology, Inselspital, Bern Universtity Hospital, University of Bern, Switzerland
,
Ehssan Ghadamgahi
2   Radiology, CT-MRT Institute, Berlin, Germany
,
Florian Streitparth
3   Department of Radiology, LMU University Hospital, Munich, Germany
,
Johannes T. Heverhagen
1   Department of Diagnostic, Interventional and Paediatric Radiology, Inselspital, Bern Universtity Hospital, University of Bern, Switzerland
,
Alexander Leichtle
4   Institute of Clinical Chemistry, Inselspital, Bern Universtiy Hospital, University of Bern, Switzerland
,
Maximilian de Bucourt
5   Institute for Diagnostic and Interventional Radiology, Charité University Medicine Berlin, Germany
,
Tobias Philipp Meyl
6   Medical Department, Medical Strategy, Inselspital, Bern University Hospital, University of Bern, Switzerland
› Author Affiliations

Abstract

Objective To estimate the human resources required for a retrospective quality review of different percentages of all routine diagnostic procedures in the Department of Radiology at Bern University Hospital, Switzerland.

Materials and Methods Three board-certified radiologists retrospectively evaluated the quality of the radiological reports of a total of 150 examinations (5 different examination types: abdominal CT, chest CT, mammography, conventional X-ray images and abdominal MRI). Each report was assigned a RADPEER score of 1 to 3 (score 1: concur with previous interpretation; score 2: discrepancy in interpretation/not ordinarily expected to be made; score 3: discrepancy in interpretation/should be made most of the time). The time (in seconds, s) required for each review was documented and compared. A sensitivity analysis was conducted to calculate the total workload for reviewing different percentages of the total annual reporting volume of the clinic.

Results Among the total of 450 reviews analyzed, 91.1 % (410/450) were assigned a score of 1 and 8.9 % (40/450) were assigned scores of 2 or 3. The average time (in seconds) required for a peer review was 60.4 s (min. 5 s, max. 245 s). The reviewer with the greatest clinical experience needed significantly less time for reviewing the reports than the two reviewers with less clinical expertise (p < 0.05). Average review times were longer for discrepant ratings with a score of 2 or 3 (p < 0.05). The total time requirement calculated for reviewing all 5 types of examination for one year would be more than 1200 working hours.

Conclusion A retrospective peer review of reports of radiological examinations using the RADPEER system requires considerable human resources. However, to improve quality, it seems feasible to peer review at least a portion of the total yearly reporting volume.

Key Points:

  • A systematic retrospective assessment of the content of radiological reports using the RADPEER system involves high personnel costs.

  • The retrospective assessment of all reports of a clinic or practice seems unrealistic due to the lack of highly specialized personnel.

  • At least part of all reports should be reviewed with the aim of improving the quality of reports.

Citation Format

  • Maurer MH, Brönnimann M, Schroeder C et al. Time Requirement and Feasibility of a Systematic Quality Peer Review of Reporting in Radiology. Fortschr Röntgenstr 2021; 193: 160 – 167

Zusammenfassung

Zielsetzung Ziel dieser Studie war es, den Aufwand für eine retrospektive Qualitätsprüfung mittels des RADPEER-Systems für verschiedene Prozentsätze der Gesamtmenge an radiologischen Befunden in der Klinik für Radiologie an der Universitätsklinik Bern (Schweiz) abzuschätzen.

Material und Methoden Drei Fachärzte für Radiologie (Bewerter 1 bis 3) bewerteten retrospektiv die Qualität der Befunde von insgesamt 150 radiologischen Untersuchungen (5 verschiedene Untersuchungsarten: Computertomografie (CT) des Abdomens, CT des Thorax, Mammografien, konventionelle Röntgenbilder und abdominale Magnetresonanztomografien (MRT)). Jedem Befund wurde eine RADPEER-Bewertung der Kategorien 1 bis 3 zugewiesen (Kategorie 1: stimmt mit der vorherigen Interpretation überein; Kategorie 2: Diskrepanz in der Interpretation/Beurteilung wäre nicht in jedem Fall zu erwarten gewesen; Kategorie 3: Diskrepanz in der Interpretation/Beurteilung wäre in den meisten Fällen zu erwarten gewesen) und die für jede Überprüfung erforderliche Zeit in Sekunden (s) dokumentiert. Die durchschnittliche Zeit für jede der 5 verschiedenen radiologischen Untersuchungsarten und die entsprechenden Bewertungen von 1 bis 3 wurden verglichen. Eine Sensitivitätsanalyse wurde durchgeführt, um die Gesamtarbeitsbelastung für die Überprüfung verschiedener Prozentsätze des gesamten jährlichen Befundvolumens der Klinik zu berechnen.

Ergebnisse Von den insgesamt 450 analysierten Befunden erhielten 91,1 % (410/450) eine Bewertung von 1 und 8,9 % (40/450) eine Bewertung von 2 oder 3. Die durchschnittliche Zeit (in Sekunden) für eine Bewertung betrug 60,4 s (min. 5 s, max. 245 s). Der Bewerter mit der längsten klinischen Erfahrung benötigte signifikant weniger Zeit für die Prüfung der Befunde als die beiden Gutachter mit kürzerer klinischer Erfahrung (p < 0,05). Die durchschnittlichen Bewertungszeiten waren länger für nicht übereinstimmende Bewertungen mit den Kategorien 2 oder 3 (p < 0,05). Der Gesamtzeitaufwand für die Überprüfung sämtlicher Befunde der 5 verschiedenen Untersuchungsarten eines Jahres würde mehr als 1200 Arbeitsstunden in Anspruch nehmen.

Schlussfolgerung Eine retrospektive Begutachtung von radiologischen Befundberichten mit dem RADPEER-System erfordert erhebliche personelle Ressourcen. Um die Befundqualität zu verbessern, scheint es jedoch möglich zu sein, zumindest einen Teil der Gesamtbefundungsleistung auch großer radiologischer Abteilungen routinemäßig einer Zweitbegutachtung zu unterziehen.

Kernaussagen:

  • Eine systematische retrospektive inhaltliche Begutachtung von radiologischen Befunden mit dem RADPEER-System ist mit einem hohen Personalaufwand verbunden.

  • Die retrospektive Begutachtung sämtlicher Befunde einer Klinik bzw. Praxis erscheint aufgrund des Mangels an hochspezialisiertem Personal unrealistisch.

  • Mit dem Ziel der inhaltlichen Qualitätsverbesserung sollte jedoch zumindest ein Teil aller Befunde einer zweiten retrospektiven Begutachtung unterzogen werden.



Publication History

Received: 12 January 2020

Accepted: 04 May 2020

Article published online:
22 July 2020

© 2020. Thieme. All rights reserved.

Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart, Germany

 
  • References

  • 1 Institute of Medicine Committee on Quality of Health Care in A. In: Kohn LT, Corrigan JM, Donaldson MS. Hrsg To Err is Human: Building a Safer Health System. Washington (DC): National Academies Press (US); 2000
  • 2 Committee on Diagnostic Error in Health C, Board on Health Care S, Institute of M et al. In: Balogh EP, Miller BT, Ball JR. Hrsg Improving Diagnosis in Health Care. Washington (DC): National Academies Press (US); 2015
  • 3 World Health Organisation (WHO). http://www.euro.who.int/en/health-topics/Health-systems/patient-safety/data-and-statistics
  • 4 Klauber J, Geraedts M, Friedrich J. et al. Krankenhausreport 2014 – Schwerpunkt Patientensicherheit. Stuttgart: Schattauer Verlag; 2014
  • 5 Maurer MH, Hamm B, Teichgraber U. ServiceBlueprinting as a service management tool in radiology. European journal of radiology 2011; 79: 333-336
  • 6 Pianykh OS, Jaworsky C, Shore MT. et al. Improving Radiology Workflow with Automated Examination Tracking and Alerts. Journal of the American College of Radiology: JACR 2017; 14: 937-943
  • 7 Kansagra AP, Liu K, Yu JP. Disruption of Radiologist Workflow. Curr Probl Diagn Radiol 2016; 45: 101-106
  • 8 Swensen SJ, Johnson CD. Radiologic quality and safety: mapping value into radiology. Journal of the American College of Radiology: JACR 2005; 2: 992-1000
  • 9 Tamm EP, Szklaruk J, Puthooran L. et al. Quality initiatives: planning, setting up, and carrying out radiology process improvement projects. Radiographics: a review publication of the Radiological Society of North America, Inc 2012; 32: 1529-1542
  • 10 Mabotuwana T, Hall CS, Flacke S. et al. Inpatient Complexity in Radiology-a Practical Application of the Case Mix Index Metric. J Digit Imaging 2017; 30: 301-308
  • 11 Margulis AR. Subspecialization and certification in radiology. Am J Roentgenol 1992; 159: 1113-1114
  • 12 Meyl TP, de Bucourt M, Berghofer A. et al. Subspecialization in radiology: effects on the diagnostic spectrum of radiologists and report turnaround time in a Swiss university hospital. Radiol Med 2019; 124: 860-869
  • 13 Gollub MJ, Panicek DM, Bach AM. et al. Clinical importance of reinterpretation of body CT scans obtained elsewhere in patients referred for care at a tertiary cancer center. Radiology 1999; 210: 109-112
  • 14 Geijer H, Geijer M. Added value of double reading in diagnostic radiology,a systematic review. Insights Imaging 2018; 9: 287-301
  • 15 Lauritzen PM, Hurlen P, Sandbaek G. et al. Double reading rates and quality assurance practices in Norwegian hospital radiology departments: two parallel national surveys. Acta radiologica 2015; 56: 78-86
  • 16 Borgstede JP, Lewis RS, Bhargavan M. et al. RADPEER quality assurance program: a multifacility study of interpretive disagreement rates. Journal of the American College of Radiology: JACR 2004; 1: 59-65
  • 17 Jackson VP, Cushing T, Abujudeh HH. et al. RADPEER scoring white paper. Journal of the American College of Radiology: JACR 2009; 6: 21-25
  • 18 Abujudeh H, Pyatt Jr RS, Bruno MA. et al. RADPEER peer review: relevance, use, concerns, challenges, and direction forward. Journal of the American College of Radiology: JACR 2014; 11: 899-904
  • 19 Goldberg-Stein S, Frigini LA, Long S. et al. ACR RADPEER Committee White Paper with 2016 Updates: Revised Scoring System, New Classifications, Self-Review, and Subspecialized Reports. Journal of the American College of Radiology: JACR 2017; 14: 1080-1086
  • 20 Moriarity AK, Brown ML, Schultz LR. Work and retirement preferences of practicing radiologists as a predictor of workforce needs. Acad Radiol 2014; 21: 1067-1071
  • 21 Saket DD. The provision of emergency radiology services and potential radiologist workforce crisis: is there a role for the emergency-dedicated radiologist?. Semin Ultrasound CT MR 2007; 28: 81-84
  • 22 Gourd E. UK radiologist staffing crisis reaches critical levels. Lancet Oncol 2017; 18: e651
  • 23 Mooney H. More radiologists needed for improved cancer diagnosis, says royal college. Bmj 2016; 353: i2718
  • 24 Soffa DJ, Lewis RS, Sunshine JH. et al. Disagreement in interpretation: a method for the development of benchmarks for quality assurance in imaging. Journal of the American College of Radiology: JACR 2004; 1: 212-217
  • 25 Sheu YR, Feder E, Balsim I. et al. Optimizing radiology peer review: a mathematical model for selecting future cases based on prior errors. Journal of the American College of Radiology: JACR 2010; 7: 431-438
  • 26 Larson PA, Pyatt Jr RS, Grimes CK. et al. Getting the most out of RADPEER. Journal of the American College of Radiology: JACR 2011; 8: 543-548
  • 27 Hofvind S, Geller BM, Rosenberg RD. et al. Screening-detected breast cancers: discordant independent double reading in a population-based screening program. Radiology 2009; 253: 652-660
  • 28 Lauritzen PM, Stavem K, Andersen JG. et al. Double reading of current chest CT examinations: Clinical importance of changes to radiology reports. European journal of radiology 2016; 85: 199-204
  • 29 Lauritzen PM, Andersen JG, Stokke MV. et al. Radiologist-initiated double reading of abdominal CT: retrospective analysis of the clinical importance of changes to radiology reports. BMJ quality & safety 2016; 25: 595-603
  • 30 Eurin M, Haddad N, Zappa M. et al. Incidence and predictors of missed injuries in trauma patients in the initial hot report of whole-body CT scan. Injury 2012; 43: 73-77
  • 31 Yoon LS, Haims AH, Brink JA. et al. Evaluation of an emergency radiology quality assurance program at a level I trauma center: abdominal and pelvic CT studies. Radiology 2002; 224: 42-46
  • 32 Kelly AM, Cronin P. Practical Approaches to Quality Improvement for Radiologists. Radiographics: a review publication of the Radiological Society of North America, Inc 2015; 35: 1630-1642