Zurück zur Übersicht

Künstliche Intelligenz in der Psychotherapie: Von Chatbots zu smarter Therapieunterstützung

Das Thema künstliche Intelligenz in Psychologie und Psychotherapie wird schon länger diskutiert. Durch die wachsende Verbreitung von Chatbots wie ChatGPT hat diese Diskussion neuen Aufschwung bekommen. Schien der Einsatz von Therapie-Chatbots noch weit in der Zukunft zu liegen, wird die praktische Anwendung zunehmend realer. Umso wichtiger erscheint es, sich mit den Einsatzmöglichkeiten, Vor- und Nachteilen sowie ethischen Fragen auseinanderzusetzen. In diesem Artikel beleuchten wir genau diese Aspekte.

Das wichtigste in Kürze: Künstliche Intelligenz (KI) gewinnt in Psychotherapie und Psychologie zunehmend an Bedeutung, insbesondere durch Chatbots auf Basis großer Sprachmodelle (LLMs) wie ChatGPT. Aktuelle Studien zeigen, dass spezialisierte therapeutische Chatbots bei leichten bis moderaten psychischen Belastungen wirksam sein können, insbesondere durch 24/7-Verfügbarkeit, Anonymität und Personalisierung. Gleichzeitig bestehen erhebliche Risiken wie unzureichende Krisenreaktionen, Fehlinformationen („Halluzinationen“), Datenschutzprobleme und mögliche Abhängigkeit. Dieser Artikel diskutiert, dass die Zukunft in einer verantwortungsvollen Entwicklung mit klaren Qualitätsstandards, Krisensicherheit und professioneller Supervision liegt – als Ergänzung, nicht als Ersatz menschlicher Therapie.

KI-Chatbots für psychische Gesundheit – die neue Realität

Es ist 3 Uhr morgens. Während die meisten Menschen schlafen, greift ein junger Mann zum Handy, nicht etwa, um bei Social Media zu scrollen, sondern um mit einem vertrauten und empathischen Gesprächspartner über seine Schlaflosigkeit zu sprechen. Der Gesprächspartner? Ein KI-Chatbot.

Diese Szene ist längst keine Zukunftsvision mehr, sondern gehört zur aktuellen Realität im Mental Health Bereich. Denn wie Menschen generative KI-Systeme einsetzen, also KI-Tools, die auf Basis von Eingaben neue Texte, Bilder, Code oder andere Inhalte erstellen können, hat sich verändert. Aktuelle Daten zeigen einen bemerkenswerten Wandel: Laut einer Studie der Harvard Business Review (2025) nutzen Menschen generative KI-Systeme mittlerweile gleich häufig für persönliche wie für berufliche Zwecke. Besonders aufschlussreich sind dabei die Nutzungsmuster von Mental Health Chatbots: 75–80 % aller Interaktionen finden außerhalb regulärer Sprechzeiten statt, mit den längsten Gesprächen zwischen 2 und 5 Uhr morgens.

Diese Zahlen werfen wichtige Fragen auf: Welche Bedürfnisse decken KI-Chatbots ab, die unser traditionelles Versorgungssystem nicht erreicht? Und was bedeutet diese Entwicklung für die psychotherapeutische Versorgung?

Was ist künstliche Intelligenz (KI)?

KI-Systeme lernen anhand von Daten, Muster und Gesetzmäßigkeiten zu erkennen und selbst anzuwenden. Das Ziel ist, dass das trainierte System Aufgaben lösen kann, die bisher nur mit menschlicher Intelligenz zu bewältigen waren – wie Texte übersetzen, Bilder erkennen oder komplexe Spiele spielen. In der Psychotherapie wären denkbare Anwendungen, dass ein KI-Modell Erkrankungen oder Therapieverläufe vorhersagt oder Therapeut:innen bei der Gesprächsanalyse unterstützt.

Von Wysa zu ChatGPT: eine rasante Entwicklung

Um die aktuelle Dynamik zu verstehen, lohnt sich ein kurzer Blick auf den bisherigen Stand der Entwicklung.

Die erste Generation: Regelbasierte Therapie-Chatbots

KI im psychologischen Kontext ist keineswegs neu. Bereits in den 1960er-Jahren entstand mit ELIZA der erste „therapeutische Chatbot”, später folgten spezialisierte Apps wie Wysa oder Woebot. Diese Systeme arbeiten regelbasiert: Nutzer:innen durchlaufen strukturierte Dialoge, in denen das System nach Erkennung bestimmter Schlüsselwörter vordefinierte Übungen und Textbausteine präsentiert. Ein wirklich freies, individuelles Gespräch findet kaum statt. 

Die Revolution: Large Language Models wie ChatGPT

Mit ChatGPT und ähnlichen Large Language Models (LLMs) hat sich das grundlegend geändert. Diese Systeme können:

  • Kontextabhängige, individualisierte Antworten generieren
  • Komplexe Gespräche über mehrere Nachrichten hinweg führen
  • Auf spezifische Situationen und Bedürfnisse eingehen
  • Empathisch und verständnisvoll klingen

Der Unterschied ist beträchtlich: Während frühere Chatbots bei der Eingabe „Ich fühle mich schlecht” eine standardisierte Antwort lieferten, können moderne LLMs nachfragen, kontextualisieren und individuell passende Unterstützung anbieten.

Die Grenzen zwischen Mensch und Maschine verschwimmen: Eine aktuelle Studie von Hatch et al. (2025) zeigt, dass Proband:innen kaum unterscheiden konnten, ob therapeutische Ratschläge von menschlichen Psychotherapeuten oder von ChatGPT-4 stammten. Menschliche Antworten wurden nur 5 % häufiger korrekt identifiziert – kaum besser als Zufall. Noch bemerkenswerter: ChatGPT-Antworten erhielten durchweg höhere Bewertungen in den Kategorien therapeutische Allianz, Empathie, Angemessenheit bezogen auf Therapieziele sowie kulturelle und therapeutische Kompetenz. Der Chatbot wirkte in dieser Untersuchung also oft empathischer als echte Fachkräfte. Allerdings ist diese Studie nicht ohne methodische Grenzen zu interpretieren. Bewertet wurden nur schriftliche Antworten auf eine begrenzte Zahl paartherapeutischer Fallvignetten. Die Expert:innengruppe war klein und spezialisiert und die Beurteilung der Wirkfaktoren erfolgte durch Laien aus der Allgemeinbevölkerung.

Die neue Generation: Spezialisierte Mental Health Chatbots

Parallel zu allgemeinen Tools wie ChatGPT entstehen derzeit zahlreiche Anwendungen, die sich speziell an Menschen mit psychischen Belastungen richten. Darunter sind zum einen Chatbots, die von interdisziplinären Teams aus Psycholog:innen, Psychotherapeut:innen und KI-Expert:innen entwickelt werden und auf etablierten therapeutischen Verfahren wie der kognitiven Verhaltenstherapie basieren. Zum anderen drängen kommerzielle Produkte auf den Markt, die oft von Tech-Unternehmen ohne psychologischen Hintergrund stammen.

Die Qualitätsunterschiede zwischen den verschiedenen Ansätzen sind erheblich. Spezialisierte und evidenzbasiert entwickelte Chatbots durchlaufen meist sorgfältige Tests und Evaluationsprozesse durch psychologische Expert:innen, verfügen über Sicherheitsmechanismen für Krisensituationen (z. B. Erkennung von Suizidgedanken) und kommunizieren transparent ihre Grenzen in Kombination mit dem Verweis auf professionelle Hilfsangebote. Kommerzielle Produkte ohne fachliche Grundlage bergen hingegen ein größeres Risiko, ungeprüfte und unangemessene Ratschläge zu geben, Risiken zu übersehen oder ungeeignete Interventionen vorzuschlagen. So ein Chatbot könnte beispielsweise bei jedem Anzeichen von Stress dieselbe Atemübung anbieten – unabhängig davon, ob dahinter Prüfungsangst oder eine Panikstörung steckt. Im harmlosesten Fall ist das unwirksam; im schlimmsten Fall kann es Nutzer:innen frustrieren oder sogar schaden.

Aktuelle Forschungsergebnisse zu therapeutischen Chatbots

Wirksamkeitsstudien zeigen erste vielversprechende Ergebnisse: Die Studienlage für evidenzbasierte therapeutische Chatbots hat sich in den letzten Jahren deutlich verbessert. Eine randomisiert kontrollierte Studie des Dartmouth College (2025) untersuchte die Wirksamkeit von LLM-basierten therapeutischen Chatbots bei Menschen mit Angststörungen, Essstörungen und Depressionen. Die Ergebnisse waren bemerkenswert: Untersucht wurde ein auf LLM-Technologie basierter Chatbot namens Therabot. Die Resultate nach acht Wochen regelmäßiger Nutzung: Depressive Symptome reduzierten sich im Schnitt um 51 %, Angstsymptome um 31 %. Diese Verbesserungen erreichten ein klinisch signifikantes Niveau und waren vergleichbar mit Ergebnissen klassischer Face-to-Face-Therapien. Auch bei Betroffenen von Essstörungen sanken spezifische Sorgen (z. B. über Figur und Gewicht) um 19 % und damit deutlich stärker als in der Kontrollgruppe ohne Chatbot. 

Eine umfassende Metaanalyse aus dem Jahr 2023, die 15 kontrollierte Studien auswertete, untermauert positive Befunde für therapeutische Chatbots. Hierbei handelte es sich überwiegend um regelbasierte oder Retrieval-basierte Systeme, die signifikante Verbesserungen bei Depression (Hedge's g = 0,64) und psychischem Stress (g = 0,70) zeigten. Diese Effektstärken entsprechen mittleren bis großen Effekten und bewegen sich im Bereich klassischer psychotherapeutischer Interventionen.

Zu beachten ist, dass sich diese Studien auf leichte bis moderate Symptome beziehen – für schwere psychische Erkrankungen oder akute Krisen liegen noch keine ausreichenden Daten vor.

Parallel dazu verdeutlicht jedoch eine aktuelle Studie von Moore et al. (2025) die Ambivalenz aktueller KI-Entwicklungen: Viele KI-basierte Sprachmodelle stimmten auf Nachfrage stigmatisierenden Aussagen über Personen mit psychischen Störungen wie Alkoholabhängigkeit oder Schizophrenie zu. Zudem zeigten die Sprachmodelle deutliche Schwierigkeiten, auf Suizidalität oder wahnassoziierte Gesprächsinhalte angemessen zu reagieren (Moore et al., 2025). Dies unterstreicht, dass trotz vielversprechender Fortschritte noch erheblicher Entwicklungs- und Sicherheitsbedarf besteht.

Zusammenfassend lässt sich also festhalten, dass spezialisierte Mental Health KI-Chatbots bei leichten bis moderaten psychischen Belastungen durchaus wirksam sein können. Gleichzeitig verdeutlichen die Studien zu Stigmatisierung und Sicherheitsrisiken, dass eine sorgfältige professionelle Überwachung und kontinuierliche Weiterentwicklung unerlässlich sind.

Therapeutische Allianz: Überraschende Ähnlichkeiten zu menschlichen Therapeut:innen

Lange galt die therapeutische Beziehung als unersetzbar menschliche Domäne. Empathie, aktives Zuhören und nonverbale Kommunikation schienen für Maschinen unerreichbar. Umso bemerkenswerter sind aktuelle Befunde zur therapeutischen Allianz zwischen Patient:innen und KI-Chatbots. In der bereits erwähnten Dartmouth-Studie (2025) berichteten Nutzer:innen eine Vertrauensbasis und Zusammenarbeit mit dem Chatbot „Therabot”, die sich nicht wesentlich von ihren Erfahrungen mit menschlichen Therapeut:innen unterschied. Die gemessene therapeutische Allianz – ein etablierter Prädiktor für Therapieerfolg – erreichte vergleichbare Werte wie in herkömmlichen Therapiesettings. Dies deutet darauf hin, dass Menschen durchaus tragfähige Arbeitsbeziehungen zu entsprechend gestalteten KI-Systemen aufbauen können.

Die ebenfalls bereits erwähnte Untersuchung von Hatch et al. (2025) sorgte auch hier für Aufsehen: In einem Turing-Test konnten 830 US-amerikanische Proband:innen kaum unterscheiden, ob therapeutische Antworten auf paartherapeutische Fallvignetten von ChatGPT-4 oder von menschlichen Therapeut:innen stammen. Die KI-Antworten wurden sogar häufig als empathischer und kulturell sensibler bewertet.

Diese Befunde werfen grundlegende Fragen auf: Wenn Patient:innen ähnlich starke therapeutische Allianzen zu KI-Systemen aufbauen können wie zu menschlichen Fachkräften, was macht dann die Einzigartigkeit von therapeutischer Arbeit aus?

Möglicherweise liegt die Antwort nicht in der Fähigkeit zur echten Empathie an sich, sondern im professionellen Urteilsvermögen von Psychotherapeut:innen sowie in ihrer Fähigkeit zur Krisenintervention und ihrem Verständnis für komplexe zwischenmenschliche Dynamiken – Bereiche, in denen KI noch deutliche Grenzen zeigt.

Chancen von KI-Chatbots für die psychische Gesundheit

Bereits heute nutzen viele Menschen KI-Systeme wie ChatGPT für alltägliche emotionale Herausforderungen: Sie suchen Rat bei Beziehungsproblemen, Arbeitsstress oder Entscheidungsschwierigkeiten. Diese niedrigschwellige Nutzung zeigt das Potenzial für präventive Ansätze – lange bevor sich klinische Symptome entwickeln. Im subklinischen Bereich, wo Menschen zwar Belastungen verspüren, aber (noch) keine Diagnose haben, können Chatbots frühzeitig unterstützen und möglicherweise der Entwicklung schwerwiegenderer Probleme entgegenwirken.

1 Niedrigschwelliger Zugang und Entstigmatisierung

Therapie-Chatbots bieten einzigartige Vorteile, die traditionelle Versorgungsstrukturen sinnvoll ergänzen können. Ihre Rund-um-die-Uhr-Verfügbarkeit ist besonders wertvoll, da psychische Belastungen sich nicht an Sprechzeiten halten. Die Anonymität von Chatbots kann zudem Scham und Angst vor Stigmatisierung reduzieren, welche viele Menschen davon abhalten, professionelle Hilfe zu suchen. Wer sich scheut, einen Therapeuten aufzusuchen, findet möglicherweise über einen Chatbot den ersten Zugang zu psychologischer Unterstützung. Für Menschen in ländlichen Gebieten oder mit eingeschränkter Mobilität können Chatbots eine wichtige Versorgungslücke schließen – ohne Wartezeiten und Anfahrtswege.

2 Personalisierung und kontinuierliche Begleitung

Moderne KI-Systeme lernen aus den Interaktionen mit Nutzer:innen und können ihre Unterstützung individuell anpassen. Wer berichtet, dass morgens das Aufstehen besonders schwerfällt, erhält gezielte Tipps für den Tagesstart. Ein System kann Muster erkennen – etwa, dass jeden Sonntagabend die Stimmung sinkt – und proaktiv Unterstützung anbieten. Kontinuierliche Nachfragen und Erinnerungen helfen dabei, therapeutische Übungen in den Alltag zu integrieren. Für Menschen, die sich bereits in Therapie befinden, können Chatbots als digitale Therapie-Begleiter fungieren – mit täglichen Check-ins, Übungserinnerungen und Motivationssätzen zwischendurch. 

Erste Hinweise zeigen, dass eine solche engmaschige Verzahnung von Therapie und digitaler Begleitung zu höherer Therapieadhärenz führen kann. Patient:innen brechen womöglich seltener ab, weil sie sich kontinuierlich unterstützt fühlen und Fortschritte besser wahrnehmen (Braun et al., 2023).

3 Brückenfunktion zur professionellen Hilfe

Darüber hinaus können Chatbots eine wichtige Brückenfunktion zur professionellen Hilfe übernehmen. Chatbots können als erste Anlaufstelle fungieren und Menschen dabei unterstützen, ihre Probleme zu verstehen und zu benennen. Diese geleitete Selbstreflexion kann eine spätere Therapie erheblich erleichtern. Gleichzeitig können sie Wartezeiten auf Therapieplätze sinnvoll überbrücken und die Bereitschaft stärken, professionelle Hilfe in Anspruch zu nehmen. So können Chatbots nicht nur direkt helfen, sondern auch den Weg in die etablierte Versorgungslandschaft ebnen.

» Beispielsweise können generative KI-Tools Angebote zur Überbrückung von Wartezeiten, in der Prävention und in der Rückfallprophylaxe eingesetzt werden. Aufgrund der Skalierbarkeit von KI-basierten Interventionen und ihrer Unabhängigkeit von Ort und Zeit könnten auch vulnerable, hochbelastete Gruppen, die aufgrund von Stigma, fehlenden zeitlichen Ressourcen oder körperlichen Einschränkungen oftmals von einer klassischen Psychotherapie ausgeschlossen sind, frühzeitiger und umfassender versorgt werden (Zhai et al., 2023). Die aktive Integration von KI in bestehende Behandlungskonzepte kann folglich auch als Chance angesehen werden, das Berufsfeld der Psychotherapie zu erweitern und mehr Menschen den Zugang zu psychologischen Interventionsangeboten zu gewährleisten. « 

Hillebrand, M. C., & Baumeister, H. in der Psychotherapeutenrundschau

Herausforderungen und Risiken von Chatbots

Trotz der vielversprechenden Potenziale geht die Nutzung von KI-Chatbots bei psychischen Herausforderungen mit erheblichen Risiken einher, die eine sorgfältige Abwägung erfordern.

1 Krisensituationen und Sicherheitsrisiken

Besonders kritisch sind Sicherheitsbedenken bei Krisensituationen. Studien belegen systematisch, dass viele Chatbots auf suizidale Andeutungen nicht adäquat reagieren. Dies gilt besonders, wenn die Formulierung indirekt oder vorsichtig ausfällt: Einige empfahlen erst bei höchster Symptomschwere professionelle Hilfe und blockierten Nutzer:innen dann ohne zumindest einen Fingerzeig in Richtung professioneller Unterstützungsangebote (Heston, 2023). Auch De Freitas et al. (2024) berichten, dass die meisten der untersuchten Antworten generativer KI-Systeme im Kontext psychischer Krisen als nicht hilfreich, über die Hälfte im suizidalen Kontext sogar als „riskant” klassifiziert wurden. Explizite Hilfsangebote oder empathische Reaktionen blieben häufig aus.

2 Datenschutz

Daten zur psychischen Gesundheit gehören zu den sensitivsten persönlichen Informationen – doch nicht alle digitalen Lösungen behandeln sie entsprechend. Bei allgemeinen KI-Diensten wie ChatGPT gilt: Von Nutzer:innen eingegebene Inhalte können – sofern nicht abgewählt – zur Verbesserung der Dienste (einschließlich Modelltraining) verwendet werden; OpenAI nennt hierzu Opt-out-Möglichkeiten sowie unterschiedliche Aufbewahrungsfristen (z. B. bis zu 30 Tage für temporäre Chats) und verweist auf gesetzliche Pflichten als Grund. Die Verarbeitung der Daten erfolgt unter anderem in den USA, eine Datenweitergabe an Behörden ist möglich, und vereinzelte Berichte über Datenverwirrungen zwischen Nutzerprofilen zeigen die Grenzen des Systems auf. 

Auch die breitere App-Landschaft zeigt Defizite: Während DiGA-zertifizierte Therapieprogramme in Deutschland strengen DSGVO-Standards unterliegen, fallen frei zugängliche KI-Chatbots oft in rechtliche Grauzonen. Eine Analyse von Mental Health und Fitness Apps ergab, dass 83% der kostenlosen Anwendungen Daten lokal ohne Verschlüsselung speichern (Zhang et al., 2025). Im Gegensatz dazu können spezialisierte, psychologische KI Chatbots gezielt auf Datenschutz und therapeutische Standards ausgelegt werden – auch ohne DiGA-Zertifizierung. Während erste regulatorische Maßnahmen wie beispielsweise in Utah mit dem Gesetz H.B. 452  entstehen, liegt der Schlüssel in der bewussten Entwicklung datenschutzkonformer Alternativen zu den großen Tech-Plattformen.

3 Problematische Zustimmungstendenz von KI-Systemen

Ein grundlegendes Problem von KI-Systemen liegt in der sogenannten „Sycophancy” – der Tendenz, Nutzer:innen zu gefallen und ihren Aussagen übermäßig zuzustimmen. 

Während menschliche Therapeut:innen dysfunktionale Denkmuster hinterfragen, alternative Perspektiven aufzeigen oder bei Bedarf therapeutisch konfrontieren können, neigen Chatbots dazu, bestehende Überzeugungen unkritisch zu bestätigen – auch wenn diese schädlich sind.

Diese unkritische Zustimmung kann verschiedene psychische Probleme verstärken: Selbstzweifel werden bestätigt statt aufgelöst, katastrophisierende Gedanken erhalten scheinbare Legitimation, und selbstschädigende Verhaltensweisen werden nicht hinterfragt. Besonders deutlich wird dies bei wahnhaften Überzeugungen, wo KI-Systeme realitätsferne Gedankengänge verstärken können, statt sie zu hinterfragen. 

Ein bislang wenig erforschtes, aber zunehmendes Phänomen sind Berichte von KI-induzierten Wahnvorstellungen – auch als „ChatGPT- Psychosen” beschrieben. Während Therapeut:innen behutsame KVT-Techniken wie sokratisches Hinterfragen oder gemeinsame Realitätsprüfung einsetzen können, fehlt Chatbots die Fähigkeit zu erkennen, wann ein Fokus auf der emotionalen Belastung und den Auswirkungen der Überzeugungen anstatt auf deren Inhalte therapeutisch sinnvoller wäre.

Intensive Interaktionen mit solch unkritisch zustimmenden Systemen können bei vulnerablen Personen zu einer Verzerrung der Selbstwahrnehmung führen. Die ständige Verfügbarkeit und scheinbar unendliche Geduld von Chatbots verstärken diese Dynamik zusätzlich. Erste Fallberichte zeigen, dass insbesondere Menschen mit Einsamkeit, sozialer Isolation oder bereits bestehenden psychischen Vorerkrankungen gefährdet sein können. Das Phänomen verdeutlicht, wie wichtig eine professionelle Überwachung und klare Grenzen bei der Nutzung therapeutischer KI-Systeme sind.

4 Unregulierte Nutzung allgemeiner KI-Systeme

Viele Menschen wenden sich bei psychischen Belastungen an allgemeine KI-Modelle wie ChatGPT – ohne zu wissen, dass diese zu gefährlichen „Halluzinationen” neigen. Halluzinationen sind das Kernproblem von LLMs: Sie generieren mit hoher Überzeugungskraft faktisch falsche, aber plausibel klingende Informationen. In der psychischen Gesundheit wird dies besonders kritisch: Ein LLM könnte beispielsweise eine nicht-existente „Panikattacken-Atemtechnik” erfinden, falsche Medikamentenwirkungen beschreiben oder sogar gefährliche Bewältigungsstrategien als „evidenzbasiert” präsentieren.

Das Problem verschärft sich, weil Betroffene in vulnerablen Zuständen diese halluzinierten Informationen oft ungefiltert übernehmen. Anders als bei harmlosen Fragen können falsche therapeutische Ratschläge zu Symptomverschlechterungen, verzögerter professioneller Hilfe oder riskanten Selbstbehandlungsversuchen führen. Selbst wenn LLMs über grundlegende Sicherheitshinweise verfügen, können sie die Komplexität individueller psychischer Belastungen nicht erfassen und halluzinieren stattdessen vermeintlich passende, aber potenziell schädliche „Lösungen”. Die hohe sprachliche Qualität dieser Halluzinationen macht sie für Laien praktisch unerkennbar – ein fundamentales Sicherheitsrisiko im Mental Health Bereich.

5 Abhängigkeitsrisiken und soziale Auswirkungen

Auch die Frage nach Abhängigkeitsrisiken bei der Nutzung von KI-Chatbots ist noch nicht ausreichend geklärt. In der klassischen Psychotherapie werden Therapieziele gemeinsam definiert, der Prozess strukturiert begleitet und die Behandlung nach Erreichen der Ziele gezielt beendet. Bei Chatbots gibt es hingegen keine vergleichbare Begrenzung oder „Ausschleichen” – Nutzer:innen können das Angebot beliebig und unbegrenzt in Anspruch nehmen. Es ist unklar, wie lange und in welchem Ausmaß Menschen solche Hilfen nutzen und ob dadurch eine Form der Abhängigkeit entstehen kann.

Darüber hinaus kann psychische Hilfe auf Knopfdruck – 24 Stunden am Tag, anonym und kostenlos – für Menschen mit Tendenz zum Rückversicherungsverhalten, sozialer Unsicherheit oder Einsamkeit problematisch werden. Während das Ziel therapeutischer Interventionen die Stärkung der Selbstwirksamkeit ist, könnte übermäßige Chatbot-Nutzung das Gegenteil bewirken. In einer Kooperationsstudie von OpenAi und dem Massachusetts Institute of Technology interagierten die Teilnehmenden vier Wochen lang täglich per Sprachfunktion oder Text mit ChatGPT. Die Ergebnisse zeigen: Teilnehmende mit längerer Nutzungsdauer wiesen am Ende der Studie eine signifikant geringere soziale Interaktion auf als zu Studienbeginn (Phang et al., 2025). Die langfristigen Auswirkungen einer übermäßigen Chatbot-Nutzung auf soziale Kompetenzen und zwischenmenschliche Beziehungen sind jedoch noch nicht ausreichend erforscht.   

Notwendige Schutzmaßnahmen und Designprinzipien

Um die identifizierten Risiken zu minimieren, haben sich in der Forschung konkrete Best-Practice-Empfehlungen für Design und Betrieb von Mental-Health-Chatbots herauskristallisiert. Dazu zählt vor allem eine transparente Kommunikation über die Fähigkeiten und Grenzen des Chatbots, damit keine falschen Erwartungen entstehen. Bei Anzeichen einer akuten Krise sind zudem klare Verweise auf Notfallkontakte und professionelle Hilfsangebote wichtig. Um Abhängigkeitsrisiken zu verringern und einer möglichen sozialen Isolation vorzubeugen, sollten darüber hinaus Mechanismen integriert werden, die eine exzessive Nutzung erkennen und begrenzen sowie soziale Kontakte aktiv fördern. Diese Designprinzipien ergänzen bestehende Datenschutzanforderungen um konkrete Schutzmechanismen für die psychische Unversehrtheit der Nutzer:innen.

Praxisbeispiel

Entwicklung eines psychologischen KI-Begleiters bei HelloBetter

Seit 2024 arbeitet HelloBetter an der verantwortungsvollen Entwicklung eines spezialisierten psychologischen KI-Begleiters, der die Vorteile von LLMs mit professionellen Standards kombiniert. Die Entwicklung erfolgt durch ein interdisziplinäres Team aus Psychotherapeut:innen, Wissenschaftler:innen und Machine Learning Expert:innen und basiert primär auf evidenzbasierten Methoden aus der kognitiven Verhaltenstherapie. 

Das System verfügt über integrierte Krisenerkennung und Notfallpläne, folgt einem „Human-in-the-Loop"-Konzept mit Zugang zu echten Psycholog:innen und wird kontinuierlich durch Fachpersonal überwacht. Höchste Datenschutzstandards nach DSGVO sind dabei selbstverständlich. Alle Daten bleiben in Europa und werden niemals an Dritte weitergegeben.

Status Quo: Hat die künstliche Intelligenz schon Einzug in die traditionelle Psychotherapie gefunden?

Während Chatbots bereits Realität im Alltag vieler Menschen sind, steckt der Einsatz von KI in der psychotherapeutischen Behandlung in Deutschland noch weitgehend in der Forschungs- und Entwicklungsphase. Hier geht es – Status quo – nicht um den direkten Kontakt zwischen KI und Patient:innen, sondern um die Unterstützung von Psychotherapeut:innen bei ihrer diagnostischen und therapeutischen Arbeit.

In der psychotherapeutischen Praxis ist die Antwort dabei eindeutig: KI wird derzeit noch nicht eingesetzt. Psychotherapie stellt einen sehr sensiblen Bereich dar, in dem ein Einsatz künstlicher Intelligenz sorgfältig geprüft und wissenschaftlich fundiert erfolgen muss.

Dafür braucht es klare gesetzliche und ethische Vorgaben. In der Forschung ist das Thema jedoch bereits angekommen und umfasst sowohl den Bereich der Diagnostik als auch den der Therapieunterstützung. Forschungsbeispiele werden im Folgenden anhand der verschiedenen Anwendungsfelder skizziert.

Diagnostik psychischer Erkrankungen

Ein Anwendungsfeld künstlicher Intelligenz liegt darin, die Diagnostik psychischer Erkrankungen zu unterstützen. So könnten KI-basierte Modelle basierend auf verschiedenen Parametern Hinweise darauf geben, in welche Richtung eine vertiefende Diagnostik sinnvoll sein könnte und so die Diagnosestellung erleichtern.

Um das zu ermöglichen, müssen KI-Modelle mit verschiedenen Daten trainiert werden. Während Diagnosen bislang überwiegend auf Selbstberichten und validierten Fragebögen oder Interviews basieren, wird zunehmend diskutiert, auch Daten aus der Mensch-Computer-Interaktion zu nutzen – beispielsweise das Swipe- oder Scrollverhalten von Nutzer:innen. Auch andere Daten wie die Stimmlage und Schrittprofile einer Person können für Vorhersagemodelle herangezogen werden. Die Theorie dahinter ist, dass sich diese Parameter ändern, sobald jemand (psychisch) erkrankt – etwa durch eine verminderte Aktivität oder eine verlangsamte Sprechweise. 

Erste Ergebnisse aus der Forschung

Gerade bei schweren Erkrankungen wie Schizophrenie ist das Erkennen von Frühwarnzeichen und eine frühe Diagnosestellung von großer Bedeutung. Eine Studie fand heraus, dass die Ergänzung der Experteneinschätzung durch ein KI-Modell, das anhand verschiedener Prädiktoren trainiert wurde, die Rate an falsch-negativen Diagnosen einer Schizophrenie senken konnte (Koutsouleris et al., 2021).

Ein anderes Beispiel sind erste Untersuchungen zur Stimmanalyse. So konnte eine Studie zeigen, dass ADHS anhand von Stimmanalysen überwiegend gut vorhergesagt werden konnte – insbesondere bei jüngeren weiblichen Teilnehmerinnen (eine Gruppe, bei der ADHS sonst häufig übersehen wird). 

Auch im Bereich der Suizidprävention gibt es erste Studien zum Einsatz von Vorhersagemodellen. Hierbei werden beispielsweise Menschen kontaktiert, die laut Modell ein erhöhtes Suizidrisiko aufweisen, was die Inanspruchnahme von Hilfe erhöhen kann. In einer anderen Studie verbesserte die Auswertung klinischer Notizen und öffentlicher Daten durch ein maschinelles Lernmodell die Vorhersage von Suiziden nach der Entlassung aus einem psychiatrischen Krankenhaus (Kessler et al., 2023).

KI zur Therapieunterstützung

Um Therapieeffekte zu verbessern, könnten auf künstlicher Intelligenz basierende Vorhersagemodelle frühzeitig auf mögliche Therapieabbrüche oder Symptomverschlechterungen hinweisen. Dadurch könnten Psychotherapeut:innen sensibilisiert werden und gegebenenfalls intervenieren. KI-Modelle könnten auch – zum Beispiel im Rahmen von modularer Psychotherapie – die Therapieplanung bzw. Modulauswahl unterstützen. 

Ein weiterer Anwendungsfall könnte in Hilfestellungen zwischen Therapiesitzungen liegen – also in einer Form von Blended Care. So könnten Betroffene beispielsweise regelmäßig ihre Symptome und Stimmung messen und daraufhin Empfehlungen für Übungen zwischen den Sitzungen erhalten. Über Smartphones und Wearables lässt sich außerdem nutzungsbasiertes Verhalten (z. B. Aktivität, Schlaf, Kommunikationsmuster) anonymisiert auswerten, um Veränderungen im Befinden besser zu erkennen. Darauf aufbauend werden sogenannte „Just-in-Time Adaptive Interventions” (JITAI) erprobt, die situativ passende Übungen ausspielen – etwa zur Emotionsregulation am Abend oder Aktivierung am Morgen (Hammelrath, 2025).

Erste Ergebnisse aus der Forschung

Es gibt erste Forschungsprojekte, die sich mit der Vorhersage von Therapieabbrüchen und einer bestmöglichen Therapieplanung auseinandersetzen. Häufig kommen dafür Feedbacksysteme zum Einsatz (z. B. PROMs). Das heißt, Patient:innen geben regelmäßig Rückmeldung zu ihren Symptomen und Algorithmen werten diese Daten aus. Bei ungünstigen Prognosen können Psychotherapeut:innen dann vom System gewarnt werden. Erste Forschungsprojekte befassen sich zudem bereits mit der Wahl der bestmöglichen Therapie für Patient:innen – beispielsweise der Entscheidung zwischen einer kognitiven Verhaltenstherapie oder einer interpersonellen Psychotherapie bei Depressionen und PTBS.

KI-gestützte Aus- und Weiterbildung

Ein besonders innovativer Ansatz zur Nutzung von KI in der Psychotherapie liegt in der Aus- und Weiterbildung von Therapeut:innen. Hier zeigt sich bereits heute, wie künstliche Intelligenz die therapeutische Praxis sinnvoll unterstützen kann. Das Projekt „PsyRAI” (Psychological Rater AI) der Universität Trier in Kooperation mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) nutzt große Sprachmodelle, um therapeutische Reaktionen automatisch zu evaluieren und gezieltes Feedback zu geben (Bommer et al., 2025). Das System funktioniert wie ein digitaler Supervisor: Psychotherapeut:innen in Ausbildung reagieren auf videobasierte Aussagen von Übungspatient:innen und erhalten unmittelbares, KI-gestütztes Feedback zu ihren therapeutischen Reaktionen. Konkret kann das System klinische Basisfertigkeiten wie empathische Kommunikation, therapeutische Gesprächsführung oder das Timing von Interventionen bewerten. Statt allgemeiner Bewertungen gibt es spezifische Verbesserungsvorschläge, etwa: „Es bleibt unklar, ob der Patient dich verstanden hat. Versuche deinen Fachjargon zu reduzieren.”

Dieser Ansatz ermöglicht eigenständiges, KI-gestütztes Üben im Sinne des „Deliberate Practice” (Bommer et al., 2025). Das heißt, therapeutische Fertigkeiten können durch gezielte Rückmeldungen schrittweise optimiert werden – und das rund um die Uhr, ohne dass ständig menschliche Supervisor:innen verfügbar sein müssen. Besonders in der Ausbildung, wo Übungsmöglichkeiten oft begrenzt sind, könnte dies einen wertvollen Beitrag leisten. Denn solche Systeme ersetzen zwar nicht die menschliche Supervision, ergänzen sie aber um eine zusätzliche Übungsebene. Sie könnten dazu beitragen, die Qualität der therapeutischen Ausbildung zu verbessern und den angehenden Therapeut:innen mehr Sicherheit in ihrer beruflichen Entwicklung zu geben.

Dokumentation 

Erste Studien zeigen, dass KI-gestützte Dokumentationssysteme den Schreibaufwand pro Sitzung von rund 20 auf unter 10 Minuten reduzieren können, ohne die therapeutische Beziehung zu beeinträchtigen (Batkhina et al., 2025). Systeme wie Eleos, PlaynVoice oder VIA liefern automatisch Transkripte, strukturierte Verlaufsberichte und sogar Vorschläge für Abrechnungsziffern – sodass deutlich weniger Zeit für Bürokratie anfällt. Therapeut:innen werden also potenziell entlastet und gewinnen mehr Kapazität für die eigentliche Behandlung. 

Wo liegen Chancen und Risiken des Einsatzes von künstlicher Intelligenz in Psychologie und Psychotherapie?

Betrachtet man die unterschiedlichen Chancen und Risiken, muss man zunächst zwischen den Anwendungsfeldern differenzieren. So gehen frei verfügbare Therapie-Chatbots beispielsweise mit anderen Vor- und Nachteilen einher als eine KI-gestützte Therapieplanung. 

Chancen KI-gestützter Psychotherapie

Es gibt einen großen Bedarf, die Diagnostik und Behandlung psychischer Erkrankungen zu verbessern, was sich beispielsweise in der hohen Zahl der Nonresponder bei Depressionen widerspiegelt. Auch die hohe Rate an Komorbiditäten und die Reliabilitäts- und Validitätsprobleme bestehender Klassifikationssysteme verdeutlichen den Handlungsbedarf. Gerade die Diagnostik seltener, komplexer und schwerer Erkrankungen könnte vom Einsatz künstlicher Intelligenz profitieren. Denn KI-Modelle beziehen neben bisherigen Diagnostik-Instrumenten weitere Datenpunkte mit ein, wodurch die Diagnostik valider werden könnte. Damit könnte dann auch die Rate der falschen oder übersehenen Diagnosen verringert und Chronifizierungen, schwere Verläufe und Schädigungen verhindert werden. 

Außerdem könnten Therapieeffekte verbessert und möglicherweise die Rate an Nonrespondern verringert werden. Die Psychotherapie kann damit auch immer individualisierter und personalisierter werden. Im Fall von Blended Care liegt außerdem eine Chance darin, längere Therapiepausen zu überbrücken und eine bessere Integration des Erlernten in den Alltag zu ermöglichen.

Risiken KI-gestützter Psychotherapie

Neben dem großen Potenzial ist es wichtig, die Risiken zu betrachten. Bei der Therapieunterstützung stellen sich Fragen nach Verantwortung und Haftung, denn auch KI-gestützte Empfehlungen können fehlerhaft sein – sie sind nur so gut wie die Daten, mit denen sie trainiert wurden.  Die Entlastung durch eine KI-gestützte Diagnostik könnte auch das Risiko in sich bergen, dass Psychotherapeutinnen von der Technologie abhängig werden und zu sehr darauf vertrauen – möglicherweise werden dann eigene Kompetenzen zunehmend verlernt. Dazu kommt, dass KI-Modelle kaum helfen, ein besseres Verständnis von psychischen Erkrankungen zu erlangen und keine Kausalschlüsse zulassen. Entscheidungen würden sich also auf Empfehlungen stützen, ohne deren Entstehung nachvollziehen zu können. 

Das Training und die Anwendung von KI-Modellen erfordert große Mengen an Daten, was Datenschutz und Datensicherheit zu zentralen Herausforderungen macht. Auch die Gefahr von Hackerangriffen muss bedacht werden, um die sensiblen Daten jederzeit gut schützen zu können. Die Daten bergen ein weiteres Problem: Sollten von bestimmten Personengruppen wenig Daten vorliegen, könnten diese im Umkehrschluss womöglich weniger gut von datengestützten Modellen profitieren. Dies könnte die soziale Ungleichheit und mangelnde Partizipation im Gesundheitswesen verstärken. 

Ganz unabhängig davon, welche KI-Modelle in der Versorgung Einzug erhalten, besteht immer auch das Risiko, dass bereits bestehende Versorgungsstrukturen dadurch gekürzt werden könnten. Zudem steckt die Forschung und Anwendung von künstlicher Intelligenz noch in den Kinderschuhen und langfristige Konsequenzen sind noch nicht erforscht und absehbar.

Ethisch relevant ist nicht nur die Abwägung zwischen Chancen und Risiken, sondern auch die Frage, wie Patient:innen über den Einsatz von KI aufgeklärt und wie Einwilligungen eingeholt werden – insbesondere bei vulnerablen Gruppen wie Kindern, Menschen mit Intelligenzminderung oder schwerer psychischer Erkrankung.

Aktuelle Regulierungsbemühungen und Leitlinien:

Die Fachgemeinschaft hat die Notwendigkeit klarer Standards erkannt. Der Berufsverband für Verhaltenstherapie (BVVP) hat 2024 erste Stellungnahmen zur Nutzung von KI in der Psychotherapie veröffentlicht und fordert klare Qualitätsstandards sowie Zertifizierungsverfahren für therapeutische KI-Anwendungen. Auch international entstehen erste Rahmenwerke für den verantwortungsvollen Einsatz von KI im Gesundheitswesen.

Künstliche Intelligenz bei HelloBetter

HelloBetter ist als forschendes Unternehmen in verschiedene Forschungsprojekte eingebunden – beispielsweise zum Einsatz von sogenannten Vorhersage-Modellen. Das Forschungsprojekt „MAIKI” hat sich beispielsweise mit der Vorhersage der Symptomschwere von Depressionen beschäftigt.14 Dabei wurden verschiedene Daten der Mensch-Computer-Interaktion gemessen – wie GPS-Daten, Tagebucheinträge und Stimmanalysen. Diese Daten wurden zu einem sogenannten „digitalen Phänotypen” zusammengefasst, der dabei unterstützen kann, menschliches Verhalten und Erleben vorherzusagen. Die Studie gibt Hinweise darauf, dass ein Vorhersagemodell, welches auf mobilen Daten basiert, verwendet werden kann, um tägliche Prognosen der Depression-Symptomschwere zu geben. Dieses Forschungsprojekt verdeutlicht das Potenzial von datengestützten Modellen für digitale Therapieanwendungen. In unserem englischsprachigen Artikel können Sie mehr über das Projekt und Digital Phenotyping mit AI nachlesen.

Fazit zu KI in Psychotherapie und Psychologie: Hohe Risiken, aber auch vielversprechende Chancen

Die Landschaft der KI-Anwendungen in der psychischen Gesundheit entwickelt sich rasant. Während viele der innovativen Entwicklungen noch ganz am Anfang stehen, nutzen bereits Millionen von Menschen frei verfügbare KI-Systeme für Fragen rund um psychische Gesundheit. Diese Realität macht eine fundierte Auseinandersetzung mit dem Thema unumgänglich.

Die Zukunft der KI in der Psychotherapie wird davon abhängen, ob es gelingt, die technischen Möglichkeiten verantwortungsvoll zu nutzen. Dies erfordert kontinuierliche Forschung zu Wirksamkeit und Sicherheit, die Entwicklung klarer Qualitätsstandards und Zertifizierungsverfahren sowie transparente Aufklärung über Möglichkeiten und Grenzen. Gleichzeitig müssen Fachkräfte im Umgang mit KI-Technologien ausgebildet und vulnerable Personengruppen besonders geschützt werden.

KI wird die menschliche Therapie nicht ersetzen, kann sie aber sinnvoll ergänzen. Die Kunst liegt darin, die Balance zwischen Innovation und Sicherheit zu finden – zum Wohl der Menschen, die Unterstützung suchen.

Häufig gestellte Fragen zu KI in Psychotherapie und Psychologie

Was kann KI in der Psychotherapie heute leisten?
Aus der Forschung wissen wir, dass KI das Potenzial hat, in verschiedenen Bereichen zu unterstützen: 

- Diagnostische Hilfsmittel erkennen Frühwarnzeichen für psychische Erkrankungen wie ADHS oder Schizophrenie. 
- Feedbacksysteme warnen vor Therapieabbrüchen oder Symptomverschlechterungen.
- Evidenzbasierte Chatbots bieten bei leichten bis moderaten Belastungen erste Unterstützung. 

Dabei gilt: KI ergänzt menschliche Therapeut:innen, ersetzt sie aber nicht.
Wo liegen die größten Risiken?
Die Hauptrisiken liegen in der unregulierten Nutzung allgemeiner Chatbots wie ChatGPT für psychische Gesundheit. Diese haben keine Sicherheitsmechanismen für Krisen und können „Halluzinationen” – also plausibel klingende, aber falsche Informationen – produzieren. Weitere Risiken sind Datenschutzprobleme, mögliche Abhängigkeiten von KI-Tools und die Gefahr, dass professionelle Hilfe verzögert wird. Bei schweren psychischen Erkrankungen oder akuten Krisen sind die meisten KI-Systeme ungeeignet und können sogar schaden.
Kann ChatGPT Psychotherapie ersetzen?
Nein, definitiv nicht. ChatGPT und ähnliche allgemeine KI-Tools sind nicht für therapeutische Zwecke entwickelt worden, haben keine adäquaten Sicherheitsmechanismen für Krisensituationen und können Fehlinformationen liefern. Sie verfügen über keine psychologische Fachexpertise und können komplexe diagnostische und therapeutische Prozesse nicht nachbilden. Anwendungen wie ChatGPT können höchstens erste Orientierung oder Psychoedukation bieten, ersetzen aber niemals eine professionelle Therapie bei psychischen Problemen.
Wie könnte die Psychotherapie der Zukunft mit KI aussehen?
Die Zukunft liegt in Blended Care-Ansätzen, die menschliche Therapie mit KI-Unterstützung kombinieren. KI könnte Psychoedukation, Symptom-Monitoring und Alltagsunterstützung zwischen den Sitzungen übernehmen, während Psychotherapeut:innen sich auf komplexe Fälle, Beziehungsarbeit und das konzentrieren, was unersetzlich menschlich ist. Personalisierte Behandlungspläne basierend auf KI-Analysen, automatisierte Frühwarnsysteme und kontinuierliche digitale Begleitung könnten die Therapie individueller und effektiver machen.
Wie kann ich KI verantwortungsvoll für meine psychische Gesundheit nutzen?
1. Qualität prüfen: Nur evidenzbasierte, von Fachleuten entwickelte Tools nutzen, die transparente Angaben zu Entwicklern und wissenschaftlichen Studien machen.
2. Datenschutz beachten: Keine sensiblen persönlichen Daten in unregulierte Systeme eingeben, Datenschutzeinstellungen prüfen.
3. Grenzen respektieren: KI als Ergänzung verstehen, nicht als Ersatz für professionelle Hilfe bei ernsten und/oder akuten Problemen.
4. Professionelle Hilfe suchen: Bei schweren Symptomen, Krisen oder Suizidgedanken immer menschliche Fachkräfte kontaktieren.
Woran erkenne ich seriöse KI-Anwendungen für psychische Gesundheit?
Seriöse KI-Anwendungen zeichnen sich aus durch transparente Angaben zu qualifizierten Entwicklerteams, klare Kommunikation der Grenzen, DSGVO-konforme Datenschutzrichtlinien, integrierte Sicherheitsmechanismen für Krisen und Verweise auf professionelle Hilfsangebote. Warnsignale sind übertriebene Heilversprechen, fehlende Entwicklerangaben und aggressive Vermarktungsstrategien.
Quellennachweis
  1. Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., Faix, D. J., Goodman, A. M., Longhurst, C. A., Hogarth, M., & Smith, D. M. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Internal Medicine, 183(6), 589–596. https://doi.org/10.1001/jamainternmed.2023.1838
  2. Batkhina, A. (2025). Evaluating AI-powered automation of therapy session notes: A pilot randomized controlled trial. Psychology, 16(6), 789–800. https://doi.org/10.4236/psych.2025.166044
  3. Bommer, J., Vehlen, A., Eberhardt, S., Schwartz, B., Riebschläger, D., Maerz, C., & Lutz, W. (2025). Künstliche Intelligenz zur Förderung klinischer Basisfertigkeiten in der psychotherapeutischen Aus- und Weiterbildung. Verhaltenstherapie & Psychosoziale Praxis, 57(3). https://www.dgvt-verlag.de/zeitschriften/kuenstliche-intelligenz-zur-foerderung-klinischer-basisfertigkeiten-in-der-psychotherapeutischen-aus-und-weiterbildung/
  4. Braun, P., Atik, E., Guthardt, L., Apolinário-Hagen, J., & Schückes, M. (2023). Barriers to and facilitators of a blended cognitive behavioral therapy program for depression and anxiety based on experiences of university students: Qualitative interview study. JMIR Formative Research, 7, e45970. https://doi.org/10.2196/45970
  5. BVVP – Bundesverband der Vertragspsychotherapeuten. (2024). Psychotherapie in Politik und Praxis (PPP) 1/2024: KI und Psychotherapie – Risiken, Chancen und ethische Grenzen. https://bvvp.de/wp-content/uploads/2024/09/PPP_01_2024_public.pdf
  6. Cuijpers, P., Miguel, C., Harrer, M., Plessen, C. Y., Ciharova, M., Ebert, D. D., & Karyotaki, E. (2023). Cognitive behavior therapy vs. control conditions, other psychotherapies, pharmacotherapies and combined treatment for depression: A comprehensive meta-analysis including 409 trials with 52,702 patients. World Psychiatry, 22(1), 105–115. https://doi.org/10.1002/wps.21069
  7. De Freitas, J., Uğuralp, A. K., & Oğuz-Uğuralp, Z. (2025). Emotional manipulation by AI companions [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2508.19258
  8. De Freitas, J., Uğuralp, A. K., Oğuz-Uğuralp, Z., & Puntoni, S. (2024). Chatbots and mental health: Insights into the safety of generative AI. Journal of Consumer Psychology, 34(3), 481–491. https://doi.org/10.1002/jcpy.1393
  9. Deisenhofer, A., Delgadillo, J., Rubel, J. A., Böhnke, J. R., Zimmermann, D., Schwartz, B., & Lutz, W. (2018). Individual treatment selection for patients with posttraumatic stress disorder. Depression and Anxiety, 35(6), 541–550. https://doi.org/10.1002/da.22755
  10. Delgadillo, J., de Jong, K., Lucock, M., Lutz, W., Rubel, J., Gilbody, S., Ali, S., Aguirre, E., Appleton, M., Nevin, J., O’Hayon, H., Patel, U., Sainty, A., Spencer, P., & McMillan, D. (2018). Feedback-informed treatment versus usual psychological treatment for depression and anxiety: A multisite, open-label, cluster randomised controlled trial. The Lancet Psychiatry, 5(7), 564–572. https://doi.org/10.1016/S2215-0366(18)30162-7
  11. D’Hotman, D., & Loh, E. (2020). AI enabled suicide prediction tools: A qualitative narrative review. BMJ Health & Care Informatics, 27(3), e100175. https://doi.org/10.1136/bmjhci-2020-100175
  12. Dölger, C. (2023, February 7). Chatbot: ChatGPT – Spielzeug oder Medizinprodukt? Pharmazeutische Zeitung. https://www.pharmazeutische-zeitung.de/chatgpt-spielzeug-oder-medizinprodukt-138457/
  13. European Union. (2024, July 12). Regulation (EU) 2024/1689 … (Artificial Intelligence Act). Official Journal of the European Union (L series). https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  14. Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using Psychological Artificial Intelligence (Tess) to relieve symptoms of depression and anxiety: Randomized controlled trial. JMIR Mental Health, 5(4), e64. https://doi.org/10.2196/mental.9782
  15. Gstrein, O. J., Haleem, H., & Zwitter, A. (2024). General-purpose AI regulation and the European Union AI Act. Internet Policy Review, 13(3). https://policyreview.info/articles/analysis/general-purpose-ai-regulation-and-ai-act
  16. Hammelrath, L. (2025). KI und Digital Phenotyping – Neue Blickwinkel auf psychische Erkrankungen durch Smartphones und Wearables. Verhaltenstherapie & Psychosoziale Praxis, 57(3), 378–389. https://www.dgvt-verlag.de/zeitschriften/vpp3-2025-s4-378389/
  17. Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., Le, Y., Bailey, B., Bailey, R. J., Esplin, C. R., Harris, S. M., Holt, D. P., Jr., McLaughlin, M., O’Connell, P., Rothman, K., Ritchie, L., Top, D. N., Jr., & Braithwaite, S. R. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), e0000145. https://doi.org/10.1371/journal.pmen.0000145
  18. Heinz, M. V., Mackin, D. M., Trudeau, B. M., Bhattacharya, S., Wang, Y., Banta, H. A., Jewett, A. D., Salzhauer, A. J., Griffin, T. Z., & Jacobson, N. C. (2025). Randomized trial of a generative AI chatbot for mental health treatment. NEJM AI, 2(4), AIoa2400802. https://doi.org/10.1056/AIoa2400802
  19. Heston, T. F. (2023, September 12). Evaluating risk progression in mental health chatbots using escalating prompts [Preprint]. medRxiv. https://doi.org/10.1101/2023.09.10.23295321
  20. Hillebrand, M. & Baumeister, H. (2025). Chance oder Risiko? KI-basierte Tools in der Psychotherapie. Psychotherapeutenjournal, 24 (2), 158–160. https://doi.org/10.61062/ptj202502.006
  21. Huibers, M. J., Cohen, Z. D., Lemmens, L. H., Arntz, A., Peeters, F., Cuijpers, P., & DeRubeis, R. J. (2015). Predicting optimal outcomes in cognitive therapy or interpersonal psychotherapy for depressed individuals using the Personalized Advantage Index approach. PLOS ONE, 10(11), e0140771. https://doi.org/10.1371/journal.pone.0140771
  22. Kathan, A., Harrer, M., Küster, L., Triantafyllopoulos, A., He, X., Milling, M., Gerczuk, M., Yan, T., Rajamani, S. T., Heber, E., Grossmann, I., Ebert, D. D., & Schuller, B. W. (2022). Personalised depression forecasting using mobile sensor data and ecological momentary assessment. Frontiers in Digital Health, 4, 964582. https://doi.org/10.3389/fdgth.2022.964582
  23. Kessler, R. C., Bauer, M. S., Bishop, T. M., Bossarte, R. M., Castro, V. M., Demler, O. V., Gildea, S. M., Goulet, J. L., King, A. J., Kennedy, C. J., Landes, S. J., Liu, H., Luedtke, A., Mair, P., Marx, B. P., Nock, M. K., Petukhova, M. V., Pigeon, W. R., Sampson, N. A., … Weinstock, L. M. (2023). Evaluation of a model to target high-risk psychiatric inpatients for an intensive postdischarge suicide prevention intervention. JAMA Psychiatry, 80(3), 230–240. https://doi.org/10.1001/jamapsychiatry.2022.4634
  24. Koutsouleris, N., Dwyer, D. B., Degenhardt, F., Maj, C., Urquijo-Castro, M. F., Sanfelici, R., Popovic, D., Oeztuerk, O., Haas, S. S., Weiske, J., Ruef, A., Kambeitz-Ilankovic, L., Antonucci, L. A., Neufang, S., Schmidt-Kraepelin, C., Ruhrmann, S., Penzel, N., Kambeitz, J., Haidl, T. K., … PRONIA Consortium. (2021). Multimodal machine learning workflows for prediction of psychosis in patients with clinical high-risk syndromes and recent-onset depression. JAMA Psychiatry, 78(2), 195–209. https://doi.org/10.1001/jamapsychiatry.2020.3604
  25. Lambert, M. J. (2017). Maximizing psychotherapy outcome beyond evidence-based medicine. Psychotherapy and Psychosomatics, 86(2), 80–89. https://doi.org/10.1159/000455170
  26. Lambert, M. J., Whipple, J. L., & Kleinstäuber, M. (2028). Collecting and delivering progress feedback: A meta-analysis of routine outcome monitoring. Psychotherapy, 55(4), 520–537. https://doi.org/10.1037/pst0000167
  27. Langer, L. (2025, April 4). KI in der Psychotherapie: Wissenschaftliche Studie zur Nutzung KI-gestützter Dokumentation. VIA HealthTech. https://www.via-health.de/blog-post-study
  28. Lekadir, K., Frangi, A. F., Porras, A. R., Glocker, B., Cintas, C., Langlotz, C. P., Weicken, E., Asselbergs, F. W., Prior, F., Collins, G. S., Kaissis, G., Tsakou, G., Buvat, I., Kalpathy-Cramer, J., Mongan, J., Schnabel, J. A., Kushibar, K., Riklund, K., Marias, K., … FUTURE-AI Consortium. (2025). FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare. BMJ, 388, e081554. https://doi.org/10.1136/bmj-2024-081554
  29. Li, H., Zhang, R., Lee, Y.-C., Kraut, R. E., & Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. npj Digital Medicine, 6, 236. https://doi.org/10.1038/s41746-023-00979-5
  30. Lutz, W., Rubel, J. A., Schwartz, B., Schilling, V. N. L. S., & Deisenhofer, A. (2019). Towards integrating personalized feedback research into clinical practice: Development of the Trier Treatment Navigator (TTN). Behaviour Research and Therapy, 120, 103438. https://doi.org/10.1016/j.brat.2019.103438
  31. Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2504.18412
  32. Park, J. I., Abbasian, M., Azimi, I., Bounds, D., Jun, A., Han, J., McCarron, R., Borelli, J. L., Li, J., Mahmoudi, M., Wiedenhoeft, C., & Rahmani, A. M. (2024). Building trust in mental health chatbots: Safety metrics and LLM-based evaluation tools [Preprint]. arXiv. https://arxiv.org/abs/2408.04650
  33. Sadeh-Sharvit, S., Del Camp, T., Horton, S. E., Hefner, J. D., Berry, J. M., Grossman, E., & Hollon, S. D. (2023). Effects of an artificial intelligence platform for behavioral interventions on depression and anxiety symptoms: Randomized clinical trial. Journal of Medical Internet Research, 25, e46781. https://doi.org/10.2196/46781
  34. Utah Legislature. (2025). H.B. 452: Artificial Intelligence Amendments (2025 General Session). https://le.utah.gov/~2025/bills/static/HB0452.html
  35. von Polier, G. G., Ahlers, E., Amunts, J., Langner, J., Patil, K. R., Eickhoff, S. B., Helmhold, F., & Langner, D. (2021). Predicting adult Attention Deficit Hyperactivity Disorder (ADHD) using vocal acoustic features [Preprint]. medRxiv. https://doi.org/10.1101/2021.03.18.21253108
  36. World Health Organization. (2025). Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models. https://www.who.int/publications/i/item/9789240084759
  37. Zao-Sanders, M. (2025, April 9). How people are really using GenAI in 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
  38. Zhai, S., Chu, F., Tan, M., Chi, N.-C., Ward, T., & Yuwen, W. (2023). Digital health interventions to support family caregivers: An updated systematic review. Digital Health, 9, 20552076231171967. https://doi.org/10.1177/20552076231171967
  39. Zhang, H., Mao, Y., Lin, Y., & Zhang, D. (2025). E-mental health in the age of AI: Data safety, privacy regulations and recommendations [Editorial]. Alpha Psychiatry, 26(3), 44279. https://doi.org/10.31083/AP44279
Hinweis zu inklusiver Sprache

Unser Ziel bei HelloBetter ist es, alle Menschen einzubeziehen und allen Menschen die Möglichkeit zu geben, sich in unseren Inhalten wiederzufinden. Darum legen wir großen Wert auf eine inklusive Sprache. Wir nutzen weibliche, männliche und neutrale Formen und Formulierungen. Um eine möglichst bunte Vielfalt abzubilden, versuchen wir außerdem, in unserer Bildsprache eine große Diversität von Menschen zu zeigen.

Damit Interessierte unsere Artikel möglichst leicht über die Internetsuche finden können, verzichten wir aus technischen Gründen derzeit noch auf die Nutzung von Satzzeichen einer geschlechtersensiblen Sprache – wie z. B. den Genderdoppelpunkt oder das Gendersternchen.

Unsere Artikel werden von Psycho­log­innen, Psycho­thera­peut­innen und Ärztinnen geschrieben und in einem mehrschrittigen Prozess geprüft. Wenn du mehr darüber erfahren willst, was uns beim Schreiben wichtig ist, dann lerne hier unser Autorenteam kennen.

HelloBetter CME Fortbildungen

Sie möchten mehr über DiGA erfahren oder sind noch auf der Suche nach interessanten Fortbildungen? HelloBetter lädt regelmäßig führende Experten für Fortbildungen ein und bietet die Möglichkeit, gemeinsam in den Austausch zu gehen. Erfahren Sie mehr zu unseren bevorstehenden CME-Fortbildungen und melden Sie sich kostenfrei an.

Fachnewsletter abonnieren

Erhalten Sie spannende Fachartikel und Neues aus dem Bereich E-Mental-Health direkt in Ihr Postfach!