KI als Co-Therapeut? Chancen und Risiken von Therapiechatbots

Künstliche Intelligenz eröffnet in der Psychotherapie vielfältige Anwendungsfelder. Die meisten davon stecken noch in der Forschung und haben bisher keinen Einzug in die Versorgung gefunden. Anders verhält es sich mit frei verfügbaren (therapeutischen) Chatbots: Diese werden bereits täglich von vielen Menschen für medizinische und psychologische Fragen genutzt. Die rasant zunehmende Verbreitung und Nutzung dieser Systeme wirft wichtige Fragen auf: Wie funktionieren therapeutische Chatbots? Welche Chancen und Risiken bergen sie? Und wie ist die aktuelle Evidenzlage einzuschätzen?
Die Evolution digitaler Therapieangebote
Um dem großen Versorgungsbedarf gerecht zu werden, wurden in den letzten Jahren und Jahrzehnten innovative digitale Angebote entwickelt und evaluiert. Ein bekanntes Beispiel stellen in Deutschland digitale Gesundheitsanwendungen (DiGA) dar, auch als „Apps auf Rezept” bekannt. Diese ermöglichen Betroffenen psychischer Erkrankungen, von zu Hause aus auf psychologische Online-Therapieprogramme zuzugreifen und evidenzbasierte Strategien zur Symptomreduktion zu erlernen. Die rasanten Fortschritte im Bereich künstlicher Intelligenz und die Entwicklung immer leistungsfähigerer Sprachmodelle wie ChatGPT eröffnen nun ein ganz neues Kapitel digitaler Therapieangebote: Therapeutische Chatbots. Anders als klassische Online-Therapieprogramme, die therapeutische Strategien in festgelegten Modulen vermitteln, erfolgt das Lernen hier durch direkte Interaktion mit einem Chatbot. Damit ähnelt der Prozess mehr einer Face-to-Face-Psychotherapie.
Therapiechatbot ist nicht gleich Therapiechatbot
Allen Therapiechatbots gemeinsam ist die Fähigkeit, natürliche Sprache zu verarbeiten – sei es in Form von Text oder Audio – und darauf zu reagieren. Die Art dieser Reaktion unterscheidet sich jedoch grundlegend je nach Systemtyp:
- Regelbasierte Chatbots arbeiten mit vorgeschriebenen Skripten und Entscheidungsbäumen. Nach Erkennung des Anliegens (beispielsweise Schlafprobleme) werden Nutzer:innen durch einen vordefinierten Entscheidungsbaum mit Skripten und Übungen geleitet. Diese Inhalte wurden von Expert:innen wie Psychotherapeut:innen entwickelt. Es handelt sich also nicht um frei generierte Antworten, sondern um die dialogbasierte Vermittlung vorgefertigter Inhalte. Dieser Ansatz bietet zwar wenig Flexibilität, ermöglicht aber eine hohe Kontrolle über die Antworten und deren Qualität. Angesichts der Fortschritte in der Sprachverarbeitung und der begrenzten Individualisierungsmöglichkeiten wird dieses Modell vermutlich zukünftig an Bedeutung verlieren oder zunehmend mit generativer KI kombiniert werden. Bekannte Beispiele sind die Chatbots Woebot und Wysa.
- Chatbots mit generativer künstlicher Intelligenz erzeugen ihre Antworten individuell in Echtzeit, wie man das von ChatGPT kennt. Dies ermöglicht eine natürlichere, flüssigere Gesprächsführung und ein besseres Eingehen auf individuelle Anliegen. Die geringere Kontrolle über die generierten Antworten birgt jedoch auch erhebliche Risiken, wie unangemessene Antworten oder inkonsistente therapeutische Strategien. In dieser Kategorie muss zwischen allgemeinen Chatbots und spezifischen Therapiechatbots unterschieden werden. Auch wenn allgemeine Chatbots nicht explizit für psychologische Fragestellungen konzipiert wurden, werden sie häufig dafür genutzt. ChatGPT bietet mittlerweile auch spezielle Erweiterungen (sogenannte GPTs) an, die auf bestimmte Themen spezialisiert sind – so auch Psychotherapie.
Chancen von Therapiechatbots
Ähnlich wie Online-Therapieprogramme bieten Therapiechatbots die Chance, einen niedrigschwelligen Zugang zu psychologischer Unterstützung zu ermöglichen. Sie können Menschen erreichen, die aus verschiedenen Gründen bestehende Versorgungsangebote nicht in Anspruch nehmen können oder wollen. Zudem ermöglicht die Mehrsprachigkeit der Systeme Menschen mit Sprachbarrieren den Zugang zu Informationen.
Eine weitere Chance liegt in der erhöhten Offenheit mancher Nutzer:innen gegenüber einem digitalen System: Schambesetzte Themen können möglicherweise leichter angesprochen werden, wenn kein direkter zwischenmenschlicher Kontakt besteht. Die permanente Verfügbarkeit, auch nachts und an Wochenenden, stellt eine weitere Chance dar.

Darüber hinaus können Chatbots bestehende Versorgungsangebote wie eine Psychotherapie begleitend ergänzen. Sie können zwischen den Sitzungen bei therapeutischen Hausaufgaben unterstützen, Informationen zum Therapieverlauf erfassen und psychoedukative Inhalte wiederholen und vertiefen. Dies kann die Behandlungsadhärenz stärken und die Integration therapeutischer Übungen in den Alltag erleichtern. Auch im Bereich Prävention und Beratung können Chatbots eine erste Anlaufstelle sein, Wissen vermitteln und bei Bedarf auf weiterführende Hilfsangebote verweisen.
Risiken von Therapiechatbots
Der Einsatz von therapeutischen Chatbots birgt verschiedene Risiken. Ein zentraler Aspekt ist der Datenschutz: Die sensiblen persönlichen und gesundheitsbezogenen Daten erfordern höchste Sicherheitsstandards, um Datenschutzverletzungen und Missbrauch zu verhindern. Besondere Bedenken bestehen hinsichtlich der Verwendung personenbezogener Daten zum Training der KI-Systeme.
Weitere kritische Aspekte sind potenzielle Fehleinschätzungen, unangemessene Ratschläge und Interventionen, die zu einer Verschlechterung der psychischen Gesundheit führen können. Da Chatbots weder verlässliche diagnostische Einschätzungen vornehmen noch in Krisensituationen adäquat reagieren können, besteht ein erhebliches Risiko, dass wichtige Symptome oder Warnsignale übersehen oder falsch interpretiert werden.
Fraglich bleibt auch, ob der Transfer der therapeutischen Inhalte in den Alltag gelingt. Während die ständige Verfügbarkeit zunächst als Vorteil erscheint, könnte sie andererseits die Entwicklung eigenständiger Bewältigungsstrategien beeinträchtigen: Wenn Nutzer:innen bei jeder Herausforderung sofort auf den Chatbot zurückgreifen, können eigene Problemlösefähigkeiten möglicherweise nicht aktiviert und weiterentwickelt werden. Dies birgt die Gefahr der Technikabhängigkeit und kann das Erleben von Selbstwirksamkeit nachhaltig beeinträchtigen.
Evidenz
Bisherige Metaanalysen liefern erste Hinweise auf positive Effekte von Therapiechatbots auf verschiedene Parameter der psychischen Gesundheit (Abd-Alrazaq et al., 2020; He et al., 2023; Li et al., 2023; Vaidyam et al., 2019). Generative KI-Chatbots scheinen dabei effektiver zu sein als regelbasierte Systeme (Li et al., 2023).
Allerdings gibt es einige Einschränkungen hinsichtlich der Evidenz zu therapeutischen Chatbots. So gibt es Hinweise, dass die Effekte nur kurzfristig und damit nicht nachhaltig (He et al., 2023) und einige Studienergebnisse widersprüchlich sind (Abd-Alrazaq et al., 2020). Weitere Forschung ist notwendig, um verlässliche Aussagen über die Wirksamkeit und Sicherheit von Therapiechatbots treffen zu können.
Evidenz zur therapeutischen Allianz
Ein interessanter Aspekt von Therapiechatbots betrifft die Entwicklung einer therapeutischen Beziehung zwischen Mensch und Maschine. Da die Chatbots therapeutische Gespräche simulieren, stellt sich die grundlegende Frage, ob und wie Nutzer:innen eine therapeutische Beziehung zu ihnen aufbauen. Studien zur therapeutischen Allianz, gemessen mit der Kurzform des Working Alliance Inventory (WAI-SR), zeigen überraschende Ergebnisse: Nutzer:innen therapeutischer Chatbots berichten von einer starken therapeutischen Allianz, die mit Werten aus Face-to-Face-Therapien vergleichbar sind (Beatty et al., 2022; Darcy et al., 2021) – und das im vollen Bewusstsein, mit einer KI zu interagieren.

Ethische Fragen
Die Ergebnisse zur therapeutischen Beziehung zwischen Mensch und KI werfen ethische Fragen auf. Anders als klassische digitale Therapieprogramme, die eindeutig als Werkzeuge zur Vermittlung therapeutischer Techniken fungieren, bewegen sich Chatbots in einer komplexen Grauzone zwischen Hilfsmittel und Agent. Durch die Simulation therapeutischer Gespräche entsteht eine Beziehungsdynamik, die weit über die reine Werkzeugnutzung hinausgeht. Diese Dynamik birgt spezifische ethische Herausforderungen: Die durch sprachliche Formulierungen simulierte Empathie kann bei Nutzer:innen Erwartungen wecken, die das System nicht erfüllen kann. Während an ein therapeutisches Werkzeug primär funktionale Erwartungen gerichtet werden – etwa die Vermittlung von Informationen oder das Erlernen spezifischer Techniken –, entstehen gegenüber einem scheinbar empathischen Gesprächspartner weitergehende Hoffnungen: tiefgreifendes Verständnis, emotionale Unterstützung und eine echte therapeutische Beziehung. Sedlakova & Trachsel (2022) warnen davor, dass die Enttäuschung dieser Erwartungen negative Auswirkungen auf den therapeutischen Prozess haben könnte.
Für eine ethisch vertretbare Implementierung therapeutischer Chatbots sind daher klare Rahmenbedingungen unter sorgfältiger Berücksichtigung der diskutierten Risiken erforderlich. Dazu gehören nicht nur eine transparente Kommunikation über Möglichkeiten und Grenzen der Technologie sowie spezifische Sicherheitsstandards, sondern auch eine sorgfältige Abwägung, inwieweit menschenähnliche Eigenschaften simuliert werden sollten.
Für die praktische Umsetzung gibt es bereits konkrete Forderungen nach einer verantwortungsvollen Entwicklung und Evaluation therapeutischer Chatbots (Stade et al., 2024). Im Zentrum steht ein integrativer Ansatz, der sich auf evidenzbasierte Therapien wie die kognitive Verhaltenstherapie stützt und verschiedene Berufsgruppen, insbesondere klinische Psycholog:innen, eng in den Entwicklungsprozess einbindet.
Implikationen für die Praxis
Für die therapeutische Praxis wird es zunehmend wichtig, die Nutzung von Therapiechatbots aktiv zu thematisieren. Psychotherapeut:innen können im Therapieprozess routinemäßig erfragen, ob Patient:innen parallel Chatbots oder andere KI-basierte Unterstützungsangebote nutzen oder damit Erfahrungen haben. Bei paralleler Nutzung empfiehlt sich ein offener Dialog über Chancen, Risiken und Grenzen sowie eine gemeinsame Einschätzung, ob und in welcher Form Chatbots die Therapie sinnvoll ergänzen können. Gerade in dieser frühen Entwicklungsphase von Therapiechatbots ist es wichtig, Erfahrungen aus der therapeutischen Praxis zu sammeln und auszuwerten, um ein besseres Verständnis für die Integration von Therapiechatbots in bestehende Behandlungskonzepte zu entwickeln.

Ausblick
Therapiechatbots eröffnen vielversprechende Möglichkeiten für die psychotherapeutische Versorgung. Ihr Potential liegt besonders in der niedrigschwelligen Unterstützung und der Erweiterung bestehender Therapieangebote. Allerdings werden sie bereits flächendeckend verwendet, ohne dass es ausreichende Kontrollmechanismen oder ein tiefgreifendes Verständnis möglicher Risiken gibt.
Die Entwicklung zukunftsfähiger therapeutischer Chatbots erfordert einen differenzierten und systematischen Ansatz. Grundlegend ist dabei die enge Zusammenarbeit zwischen klinischen Psycholog:innen und Technologieentwickler:innen. Dabei gilt es, evidenzbasierte therapeutische Prinzipien mit den Möglichkeiten künstlicher Intelligenz zu verbinden und gleichzeitig ethische Standards zu wahren. Besondere Aufmerksamkeit erfordert die Frage, wie therapeutische Beziehungselemente angemessen gestaltet werden können, ohne falsche Erwartungen oder problematische Abhängigkeiten zu fördern.
Die kommenden Jahre werden eine kontinuierliche, kritische Evaluation dieser Entwicklung erfordern. Die zentrale Herausforderung liegt darin, das innovative Potenzial der Technologie zu nutzen und gleichzeitig deren Risiken zu minimieren. Gelingt dieser Balanceakt, können therapeutische Chatbots zu einer wertvollen Ergänzung in der Versorgung werden.
Zum Weiterlesen
von Hagen, J. (2021). Künstliche Intelligenz in der Psychotherapie – Chance oder Risiko? Online unter: https://psychologenrunde.de/ki-psychotherapie/
von Hagen (2023). Künstliche Intelligenz in Psychologie und Psychotherapie: Noch Zukunftsmusik oder schon Realität? Online unter: https://hellobetter.de/aerzte-psychotherapeuten/kuenstliche-intelligenz-psychologie/
von Hagen, J. (2024). Die Zukunft der Psychotherapie: Transdiagnostisch, personalisiert und digital? Online unter: https://hellobetter.de/wp-content/uploads/2024/08/HelloBetter-Whitepaper-Die-Zukunft-der-Psychotherapie_Juni-2024.pdf
Quellen