RSS-Feed abonnieren
DOI: 10.1055/a-2492-4655
Künstliche Intelligenz: Fehler bei ethischen Entscheidungen in der Medizin

In einer aktuellen Studie zeigten große KI-Sprachmodelle wie ChatGPT gravierende Schwächen bei der Bearbeitung medizinethischer Entscheidungssituationen. Die Forschenden modifizierten bekannte ethische Dilemmas und stellten fest, dass die KI oft intuitive, aber falsche Antworten gab. Trotz eindeutig veränderter Faktenlage hielten die KI-Systeme an bekannten Mustern fest, ignorierten neue Informationen und zogen überholte Schlussfolgerungen. Das Autorenteam betont, dass KI-gestützte Systeme nur als Ergänzung, nicht als Ersatz für ärztliche Entscheidung dienen dürfen und stets einer menschlichen Kontrolle unterliegen müssen. [Nu]
Publikationsverlauf
Artikel online veröffentlicht:
09. September 2025
© 2025. Thieme. All rights reserved.
Georg Thieme Verlag KG
Oswald-Hesse-Straße 50, 70469 Stuttgart, Germany