Die rasante Entwicklung künstlicher Intelligenz (KI) hat in den letzten Jahren auch den Bereich der psychischen Gesundheit erreicht. Digitale Anwendungen, Chatbots und algorithmusbasierte Systeme werden zunehmend als Unterstützung oder sogar als Ersatz für psychotherapeutische Angebote diskutiert. Gerade im Kontext wachsender Versorgungslücken erscheint die sogenannte „KI-Therapie“ auf den ersten Blick als vielversprechende Lösung. Systematische Übersichtsarbeiten zeigen, dass KI-gestützte Chatbots insbesondere bei leichten bis moderaten Symptomen kurzfristige Verbesserungen erzielen können, wobei die Evidenzlage insgesamt noch heterogen ist (Abd-Alrazaq et al., 2020; Vaidyam et al., 2019). Doch bei näherer Betrachtung zeigen sich erhebliche fachliche, ethische und therapeutische Herausforderungen, die insbesondere aus verhaltenstherapeutischer Sicht kritisch zu reflektieren sind.
Was versteht man unter KI-Therapie?
Unter „KI-Therapie“ werden Programme verstanden, die mithilfe von maschinellem Lernen und sprachbasierten Modellen therapeutische Gespräche simulieren oder psychologische Interventionen anbieten. Dazu zählen beispielsweise Chatbots, die auf kognitiv-verhaltenstherapeutischen Prinzipien basieren und Nutzerinnen und Nutzer bei Angst, Depression oder Stress unterstützen sollen. Diese Systeme können rund um die Uhr verfügbar sein, reagieren schnell und bieten eine niedrigschwellige Möglichkeit, über persönliche Probleme zu sprechen. Studien zeigen, dass einige dieser Anwendungen kurzfristig zu einer Reduktion von Symptomen beitragen können, insbesondere bei leichten psychischen Belastungen (Fitzpatrick et al., 2017). Auch wenn Studien zeigen, dass durch KI-gestützte Anwendungen kurzfristige Symptomlinderungen möglich sind, ist zu berücksichtigen, dass diese Effekte vermutlich maßgeblich auf die durchgängig wohlwollende, validierende Ansprache der Systeme zurückzuführen sind. Eine solche standardisierte Form der Unterstützung kann jedoch die individuelle, beziehungsbasierte und fachlich fundierte Psychotherapie nicht ersetzen.
Verhaltenstherapeutische Einordnung
Die Verhaltenstherapie basiert auf wissenschaftlich überprüften Modellen menschlichen Erlebens und Verhaltens. Zentral sind dabei individuelle Fallkonzeptionen, die Berücksichtigung biografischer Faktoren sowie die therapeutische Beziehung als Wirkfaktor. Hier zeigt sich eine der zentralen Grenzen von KI-Systemen: Während sie standardisierte Interventionen anbieten können, fehlt ihnen die Fähigkeit zur echten Individualisierung im Sinne einer tiefgehenden funktionalen Verhaltensanalyse. Menschliche Psychotherapeutinnen und Psychotherapeuten erfassen komplexe Wechselwirkungen zwischen Gedanken, Emotionen, Verhalten und Umweltbedingungen, ein Prozess, der weit über das hinausgeht, was aktuelle KI leisten kann.
Die Bedeutung der therapeutischen Beziehung
Ein wesentlicher Wirkfaktor in der Psychotherapie ist die therapeutische Beziehung. Empathie, Vertrauen, emotionale Resonanz und ein echtes Gegenüber spielen eine entscheidende Rolle für den Therapieerfolg (Norcross & Lambert, 2018). KI-Systeme können zwar empathische Sprache imitieren, verfügen jedoch nicht über echtes Erleben oder Mitgefühl. Diese „simulierte Empathie“ kann problematisch sein, da sie eine zwischenmenschliche Qualität vortäuscht, die tatsächlich nicht vorhanden ist. Für viele Patientinnen und Patienten, insbesondere bei komplexen oder traumatischen Erfahrungen, ist jedoch genau diese authentische Beziehung ein zentraler Aspekt für eine langfristige Genesung.
Risiken und problematische Bereiche in der KI-generierten Unterstützung
1. Fehlende diagnostische Sicherheit
KI-Systeme sind nicht in der Lage, eine fundierte klinische Diagnostik durchzuführen. Komplexe Störungsbilder, Komorbiditäten (parallel verlaufende Störungsbilder) oder Krisensituationen können übersehen oder falsch eingeschätzt werden.
2. Umgang mit Krisen und Suizidalität
Ein besonders kritischer Punkt ist der Umgang mit akuten Krisen. Während menschliche Psychotherapeutinnen und Psychotherapeuten flexibel reagieren und Schutzmaßnahmen einleiten können, sind KI-Systeme hier stark limitiert. Fehlreaktionen können schwerwiegende Folgen haben (Luxton, 2014).
3. Datenschutz und Vertraulichkeit
Psychotherapeutische Gespräche beinhalten hochsensible Informationen. Die Speicherung und Verarbeitung dieser Daten durch KI-Systeme werfen erhebliche datenschutzrechtliche und ethische Fragen auf.
4. Gefahr der Vereinfachung psychischer Prozesse
KI-Anwendungen arbeiten häufig mit standardisierten Skripten. Dies kann dazu führen, dass komplexe psychische Probleme zu stark vereinfacht werden und wichtige individuelle Aspekte unberücksichtigt bleiben.
5. Illusion von Therapie
Ein weiterer kritischer Punkt ist die mögliche Verwechslung von Unterstützung mit echter Psychotherapie. Nutzerinnen und Nutzer könnten glauben, eine vollwertige Behandlung zu erhalten, obwohl es sich lediglich um ein unterstützendes Tool handelt.
Potenziale und sinnvolle Einsatzbereiche
Trotz der genannten Risiken sollten KI-Anwendungen nicht grundsätzlich abgelehnt werden. In bestimmten Kontexten können sie eine sinnvolle Ergänzung darstellen:
- Psychoedukation und Informationsvermittlung
- Unterstützung zwischen Therapiesitzungen
- Förderung von Selbstbeobachtung und Tagebuchführung
- Niedrigschwelliger Zugang für erste Hilfe bei leichten Belastungen
Aus verhaltenstherapeutischer Sicht können solche Tools insbesondere dann hilfreich sein, wenn sie strukturiert, transparent und als Ergänzung – nicht als Ersatz (!!) – eingesetzt werden.

Fazit
KI-Therapie stellt eine spannende Entwicklung dar, die das Potenzial hat, die psychotherapeutische Versorgung in bestimmten Bereichen zu unterstützen. Gleichzeitig sind die Grenzen dieser Technologie deutlich und wichtig zu berücksichtigen: Insbesondere die fehlende echte Beziehungsgestaltung, eingeschränkte Individualisierung und Risiken im Umgang mit Krisen machen deutlich, dass KI menschliche Psychotherapie nicht ersetzen kann.
Aus verhaltenstherapeutischer Perspektive bleibt die individuelle Fallkonzeption, die therapeutische Beziehung und die flexible Anpassung von Interventionen an die jeweilige Person unverzichtbar. KI kann hier ein Werkzeug sein, aber kein Ersatz für professionelle, menschliche Begleitung. Aktuelle Reviews betonen zudem, dass die langfristige Wirksamkeit sowie die Sicherheit in komplexen klinischen Situationen bislang unzureichend untersucht sind (Vaidyam et al., 2019).
Literaturverzeichnis
- Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19.
https://doi.org/10.2196/mental.7785 - Luxton, D. D. (2014). Recommendations for the ethical use and design of artificial intelligent care providers. Artificial Intelligence in Medicine, 62(1), 1–10. https://doi.org/10.1016/j.artmed.2014.06.004
- Norcross, J. C., & Lambert, M. J. (2018). Psychotherapy relationships that work III. Psychotherapy, 55(4), 303–315. https://doi.org/10.1037/pst0000193
- Abd-Alrazaq, A., Alajlani, M., Alalwan, A. A., Bewick, B. M., Gardner, P., & Househ, M. (2020). An overview of the features of chatbots in mental health: A systematic review. International Journal of Medical Informatics, 132, 103978. https://doi.org/10.1016/j.ijmedinf.2019.103978
- Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S., & Torous, J. B. (2019).
Chatbots and conversational agents in mental health: A review of the psychiatric landscape. Canadian Journal of Psychiatry, 64(7), 456–464.
https://doi.org/10.1177/0706743719828977
