Zusammenfassung
Hintergrund Die Bedeutung von Künstlicher Intelligenz nimmt in der Radiologie stetig zu. Doch
gerade bei neuen und leistungsfähigen Verfahren, vor allem aus dem Bereich des Deep
Learnings, ist das Nachvollziehen von Entscheidungen oft nicht mehr möglich. Die resultierenden
Modelle erfüllen ihre Funktion, ohne dass die Nutzer die internen Abläufe nachvollziehen
können und werden als sogenannte Black-Box eingesetzt. Gerade in sensiblen Bereichen
wie der Medizin ist die Erklärbarkeit von Ergebnissen von herausragender Bedeutung,
um deren Korrektheit zu verifizieren und Alternativen abwägen zu können. Aus diesem
Grund wird aktiv an der Durchleuchtung dieser Black-Boxen gearbeitet.
Methode Dieser Übersichtsartikel stellt unterschiedliche Ansätze für erklärbare Künstliche
Intelligenz mit ihren Vor- und Nachteilen vor. Anhand von Beispielen werden die vorgestellten
Verfahren veranschaulicht. Die Arbeit soll es dem Leser erlauben, die Grenzen der
entsprechenden Erklärungen in der Praxis besser abzuschätzen und die Einbindung solcher
Lösungen in neue Forschungsvorhaben stärken.
Ergebnisse und Schlussfolgerung Neben Methoden, Black-Box-Modelle auf Erklärbarkeit zu untersuchen, bieten interpretierbare
Modelle eine interessante Alternative. Die Erklärbarkeit ist hier Teil des Verfahrens
und das erlernte Modellwissen kann mit Fachwissen überprüft werden.
Kernaussagen:
-
Der Einsatz von Künstlicher Intelligenz in der Radiologie bietet viele Möglichkeiten,
etwa zur Unterstützung während der Bildaufnahme und -verarbeitung oder zur Diagnosestellung.
-
Komplexe Modelle können eine hohe Genauigkeit erreichen, erschweren allerdings die
Nachvollziehbarkeit der Datenverarbeitung.
-
Wird die Erklärbarkeit bereits bei der Planung des Modells berücksichtigt, können
leistungsfähige und zugleich interpretierbare Verfahren entwickelt werden.
Zitierweise
Key words
Artificial Intelligence - Explainable AI - Machine Learning - Black Box - Deep Learning
- Medical Image Processing