Die Wirbelsäule 2023; 07(04): 210-211
DOI: 10.1055/a-1993-8769
Referiert und kommentiert

Kommentar zu Totaler Hüftgelenkersatz: Wie gut beantwortet ChatGPT Patientenfragen?

Tu-Lan Vu-Han
,
Thilo Khakzad

Der Chat Generative Pre-trained Transformer (ChatGPT) ist ein auf Large Language Modellen (LLMs) basierter Chatbot, der durch OpenAI entwickelt und am 30. November 2022 erstmals der Öffentlichkeit zugänglich gemacht wurde. Seither gehört ChatGPT zu den am schnellsten wachsenden Technologien unserer Zeit. Nach nur zwei Monaten hatte der Chatbot bereits 100 Millionen aktive Benutzer. Der konversationsfähige Chatbot hat innerhalb weniger Monate auf diversen Plattformen und Disziplinen Einzug gehalten. So auch im medizinischen Bereich. Bereits mehrere Zentren weltweit testen aktuell das Potenzial des Chatbots. Die Integration in die Arzt-Patienten-Interaktionen, Patientenedukation, Anamneseerhebung, medizinische Dokumentation sowie wissenschaftliches Arbeiten unter Zielsetzung der Effizienzsteigerung seien hier nur beispielhaft erwähnt.

Die hier kommentierte wissenschaftliche Arbeit untersuchte die Antworten von ChatGPT auf häufige Patientenfragen zur Hüft-Totalendoprothese auf ihre medizinische Korrektheit und Qualität. Die kritische Auseinandersetzung des Verhaltens von ChatGPT und seinen Nachfolgern (i.e. GPT-4) ist indes Thema medizinischer Fachgesellschaften.

Suchmaschinen, wie die von Google, haben bereits seit Jahren einen wichtigen Stellenwert in der Patienteninformation eingenommen. Wenngleich es auch hier zur Aufnahme und Weitergabe von Falschinformationen kommen kann, hat der reflektierte Patient doch zumindest die Möglichkeit seine Informationsquelle selbst auszusuchen.

Dies gilt für KI-basierte Chatbots wie das ChatGPT nicht. Kritisch zu betrachtende Phänomene wie Halluzinationen und Fabrikationen stehen hier intransparent dem interagierenden Patienten gegenüber. Halluzinationen bei künstlicher Intelligenz sind Antworten der KI, die zwar plausibel klingen, jedoch faktisch falsch sind und/oder nicht mit dem eigentlichen Thema zusammenhängen. Diese können einfach oder auch schwer zu erkennen sein. Eine gute partizipative Entscheidungsfindung setzt fakten- und evidenzbasierte Informationen voraus. Bei Halluzinationen werden diese im Zweifelsfall erodiert, ohne dass Arzt oder Patient sich dieser Tatsache bewusstwerden. Dabei entsteht zwischen dem Vertrauen des Patienten in die Technologie und seinem Vertrauen in die medizinische Entscheidung des Arztes ein Spannungsfeld. Ferner gibt es ethische Bedenken, wenn die Antworten von ChatGPT den Patienten davon abhalten wichtige medizinische Behandlungen aufzusuchen oder anzunehmen.

ChatGPT wurde mit öffentlich zugänglichen Textdaten aus Büchern, Artikeln und Webseiten trainiert. Neuste Erkenntnisse und Daten zu fachlichen Randbereichen sind in diesen Textdaten häufig unterrepräsentiert, wodurch das ChatGPT-„Wissen“ limitiert ist.

Die Hüft-Totalendoprothese ist die häufigste orthopädische Operation weltweit. Die Indikationen und Operationstechniken sind gut etabliert und standardisiert. Es ist daher nicht überraschend, dass die KI-generierten Antworten hier mit hoher Korrektheit abschneiden. Mutmaßlich wird diese Korrektheit und Qualität jedoch in thematischen Randbereichen oder medizinisch hochkomplexen Entscheidungen deutlich abnehmen.

Innerhalb der letzten Dekaden konnte viel Evidenz im Bereich der Wirbelsäulenchirurgie generiert werden. Gleichsam entwickelten Fachgesellschaften Leitlinien für die Behandlung von Wirbelsäulenerkrankungen. Dennoch lebt die Wirbelsäulenchirurgie, mehr als viele andere chirurgische Spezialisierungen, von der hoch individuellen Therapieentscheidung. Dies betrifft die Indikation zur Operation, den Zugangsweg im Sinne des geeigneten Operativen Verfahrens etc. Dass hier ein KI-basierter Algorithmus Klarheit für den einzelnen Patienten bringen kann, wird skeptisch gesehen und bedarf der wissenschaftlichen Überprüfung. KI-Halluzinationen sowie die Weitergabe von Fehlinformationen oder gar Ratschlägen könnten in diesem sensiblen Bereich das Spannungsfeld erweitern.

Positiv zu erwähnen ist, dass auch in der kommentierten Studie, ChatGPT regelmäßig den direkten Arztkontakt empfiehlt.

Um das Problem von KI-Halluzinationen zu lösen, können die LLMs auf bessere, relevantere Daten trainiert werden. Dies erfordert jedoch eine Experten-basierte Auswahl, um relevante und vielfältige Datensätze zu kuratieren.

Die KI-gestützte partizipative Entscheidungsfindung in medizinischen Fragen ist eine Zukunftsvision, deren Anfänge wir gerade miterleben dürfen und welche mit Sicherheit in den kommenden Jahren zu einem integralen Bestandteil der medizinischen Praxis erwächst. Entsprechend werden sich Mediziner in Zukunft darauf einstellen müssen, ihre Patienten im Umgang mit ChatGPT und anderen künstlich intelligenten Systemen zu schulen.



Publication History

Article published online:
24 October 2023

© 2023. Thieme. All rights reserved.

Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart, Germany