PSYCH up2date 2025; 19(05): 351-354
DOI: 10.1055/a-2649-3274
Editorial

Artifizielle Intelligenz in der Psychotherapie – werden Psychotherapeut*innen bald überflüssig?

Fritz Hohagen
Preview

Artifizielle Intelligenz (AI) erobert in atemberaubender Geschwindigkeit alle Bereiche des Lebens. Dabei macht sie natürlich vor der Medizin nicht Halt. Auch in Bereichen wie Psychiatrie, Psychosomatik und Psychologie, in denen Interaktion, therapeutische Beziehung und Empathie eine zentrale Rolle spielen, wird der Einsatz von AI intensiv diskutiert und in ersten Studien geprüft. Noch sind wir weit davon entfernt, den Einfluss von AI auf unsere zukünftige klinische und wissenschaftliche Tätigkeit abschätzen zu können. Aber mögliche Einsatzfelder sowie Chancen und Risiken zeichnen sich bereits ab. Einen umfassenden Überblick über die Thematik bietet das Buch „KI in der Psychotherapie (-wissenschaft)“ von Raile und Geißler [1].

Maschinelles Lernen ermöglicht es Computern, Muster in Daten zu erkennen und darauf basierend Entscheidungen und Vorhersagen zu treffen [1]. Sprachgestützte Systeme können Sprache erkennen und selbst generieren und stellen damit eine Weiterentwicklung von computergestützten Therapieprogrammen dar, deren klinische Wirksamkeit für eine Vielzahl von psychischen Störungen bereits gezeigt werden konnte [2].

Die Einsatzmöglichkeiten für AI in Diagnostik und Therapie sind vielfältig und reichen von der Früherkennung bis hin zu differenzierten Therapieprogrammen (Übersicht bei [1]). In der Diagnostik können anhand der Analyse von Stimme, Mimik oder Sprachmuster depressive oder ängstliche Symptome identifiziert werden [3] [4]. Dieses erlaubt zum einem die Früherkennung psychischer Symptome, beinhaltet aber auch die Gefahr von Fehlinterpretationen, wenn vom System kulturelle, individuelle oder sprachliche Besonderheiten fehlinterpretiert werden [5].

In der Behandlung können chatbot-basierte virtuelle Therapeuten wie z.B. Woebot oder Wysa eingesetzt werden, die Therapieelemente aus der Verhaltenstherapie beinhalten und v.a. in Selbsthilfe und Prävention bei Angst- und depressiven Symptomen Anwendung finden [6] [7]. Für die Bereitstellung und Vermittlung psychoedukativen Materials bieten sich durch ChatGPT ebenfalls vielfältige Möglichkeiten. In der Analyse und Supervision von Therapiesitzungen geben AI gestützte Systeme Vorschläge zur Optimierung therapeutischer Interventionen [8].

Die Vorteile AI gestützter Programme liegen im niederschwelligen Zugang und in der Erreichbarkeit auch in Regionen, in denen kein dichtes Netz an therapeutischen Angeboten existiert. Sie eignen sich auch für Stepped-care-Ansätze im Versorgungssystem für Menschen mit psychischen Störungen als Erstintervention, um bei Erfolg eine Psychotherapie überflüssig zu machen oder als Überbrückung angesichts langer Wartezeiten und personeller Engpässe im Versorgungssystem, bis eine reguläre Psychotherapie erfolgen kann. Außerdem können AI basierte Psychoedukations- und Therapieprogramme eine Ergänzung zum konventionellen therapeutischen Arbeiten darstellen und die Therapeut*innen entlasten.

Die Risiken liegen auf der Hand. Mit den technischen Möglichkeiten, die AI jetzt bietet, können sprachgestützte Therapieprogramme in Inhalt und Sprachmodulation individuell auf die Patient*innen eingehen. Damit wird eine empathische therapeutische Beziehung imitiert, die sehr „menschenähnlich“ wirkt, aber eben nur wirkt. AI hat kein „Bewusstsein“, keine „Empathie“ im eigentlichen Sinne und ist zu einer wirklichen empathischen Beziehung (noch?) nicht fähig [9], sondern basiert auf statistischen Wahrscheinlichkeitsrechnungen. Durch die einfühlsam wirkende Dialogführung kann bei den Patient*innen der Eindruck entstehen, es mit einem mitfühlenden Gegenüber zu tun zu haben, ohne dass das System auf die wahre emotionale Gestimmtheit der Patient*innen eingehen kann [1]. Weiterhin besteht die Gefahr, dass ChatGPT basierte Programme aufgrund der inhärenten Logik der zugrundeliegenden Algorithmen anscheinend plausible Antworten geben, die aber inhaltlich falsch sind, was v.a. bei Anwendung im medizinischen bzw. psychotherapeutischen Bereich zu erheblichen Problemen der Patient*innensicherheit führt [10].

Natürlich gibt es eine Reihe von rechtlichen, ethischen und regulatorischen Problemen zu bedenken und zu lösen (siehe [1]). Auf die Problematik, dass AI basierte Programme kein wirkliches Verständnis der Situation der Patient*innen und kein wirkliches Mitgefühl haben, sondern auf statistische Annahmen beruhen, wurde bereits hingewiesen. Darüber hinaus könnte es durch die zugrundeliegenden Trainingsdaten bei der Erstellung der Algorithmen zu kulturell oder sozial verzerrten Interaktionsmöglichkeiten kommen, die bestimmte soziale Gruppen benachteiligen oder marginalisieren.

Datenschutz und Transparenz stellen gerade im medizinischen und psychotherapeutischen Bereich weitere große Herausforderungen dar. Regulatorische Vorgaben und haftungsrechtliche Aspekte sowie qualitätssichernde Maßnahmen bei der Durchführung AI basierten Interventionen müssen geschaffen werden. Und nicht zuletzt muss der Missbrauch von AI durch z.B. bewusst verfälschte Informationen im therapeutischen Kontext verhindert und unmöglich gemacht werden [1].

Werden Psychotherapeut*innen durch AI bald überflüssig? Wohl nicht, denn AI kann die Therapeutin oder den Therapeuten nicht ersetzen. Die Persönlichkeit, Lebenserfahrung, Empathie (statt statistischer Annahmen) sowie das Fachwissen und die Möglichkeit, auf subtile Signale der Patient*innen reagieren zu können, machen die Interaktion zwischen Therapeut*in und Patient*in einzigartig. AI stellt aber eine bereichernde Ergänzung zur konventionellen Psychotherapie dar und kann – wie oben ausgeführt – vielfältig eingesetzt werden. Bei aller berechtigten Skepsis – wir sind aufgefordert, uns in die Diskussion über AI in der Psychotherapie einzubringen und die Anwendung dieser neuen therapeutischen Möglichkeit mitzugestalten.



Publication History

Article published online:
26 September 2025

© 2025. Thieme. All rights reserved.

Georg Thieme Verlag KG
Oswald-Hesse-Straße 50, 70469 Stuttgart, Germany