Zurück zur Übersicht

Künstliche Intelligenz in Psychologie und Psychotherapie: Noch Zukunftsmusik oder schon Realität?

Das Thema künstliche Intelligenz in Psychologie und Psychotherapie wird schon länger diskutiert. Durch die Veröffentlichung neuer Chatbots wie dem ChatGPT hat diese Diskussion neuen Aufschwung bekommen. Schien der Einsatz von Therapie-Chatbots noch weit in der Zukunft zu liegen, wird die praktische Anwendung zunehmend realer. Umso wichtiger erscheint es, sich mit den Einsatzmöglichkeiten, Vor- und Nachteilen sowie ethischen Fragen auseinanderzusetzen. In diesem Artikel beleuchten wir genau diese Aspekte.

Status Quo: Hat die künstliche Intelligenz schon Einzug in Psychologie und Psychotherapie gefunden?

In vielen Berufsfeldern wird aktuell der Einsatz künstlicher Intelligenz (KI) getestet. Doch wie sieht es in der Psychotherapie aus – wird KI hier bereits verwendet? In der psychotherapeutischen Praxis in Deutschland ist die Antwort ganz klar: Nein. Und das hat seine Gründe. Psychotherapie stellt einen sehr sensiblen Bereich dar, in dem ein Einsatz künstlicher Intelligenz vorher gut überlegt und erforscht sein muss. Es bedarf klarer Regeln und der Klärung rechtlicher und ethischer Fragen. In der Forschung ist das Thema jedoch schon angekommen und umfasst sowohl den Bereich der Diagnostik als auch den der Therapieunterstützung. Forschungsbeispiele werden im Verlauf anhand der verschiedenen Anwendungsfelder skizziert. 

Definition

Künstliche Intelligenz als solches ist gar nicht so leicht zu definieren – im Grunde genommen geht es darum, dass ein System anhand von Daten lernt, Gesetzmäßigkeiten zu erkennen und selbst anwenden zu können. Das Ziel dabei ist, dass das trainierte System dann Aufgaben lösen kann, die bisher nur mit menschlicher Intelligenz zu lösen waren, wie zum Beispiel Texte zu übersetzen oder komplexe Spiele zu spielen. In der Psychotherapie wären unter anderem denkbare Anwendungen, dass ein KI-Modell Erkrankungen oder Therapieverläufe vorhersagen und/oder ein Therapiegespräch simulieren könnte.

Frei verfügbare Chatbots

Ein ganz anderes Thema sind die auf dem Markt frei verfügbaren Therapie-Chatbots, beispielsweise Wysa, Tess oder Woebot. Schaut man sich die spezifischen Therapie-Chatbots jedoch genauer an, wird schnell klar, dass Nutzerinnen hier im Vergleich zu beschriebenen Entwicklungen in der KI meist in Entscheidungsbäumen landen und ein freies Gespräch kaum stattfindet. Diese Entscheidungsbäume werden von Expertinnen und Experten entwickelt und formuliert. Sobald die Anwendung das Thema oder die Emotion des Chatters erkannt hat, werden vorgeschriebene Übungen und Texte präsentiert. Somit unterscheiden sich viele der Anwendungen, abgesehen von der initialen Spracherkennung und des imaginären Gesprächspartners, zum jetzigen Zeitpunkt kaum von anderen Gesundheits-Apps

In einer Studie zur Untersuchung des Therapie-Chatbots Tess wird der Chatbot beispielsweise folgendermaßen beschrieben (aus dem Englischen übersetzt): Alle Inhalte werden von erfahrenen Fachpersonen entwickelt, überprüft und auf die spezifischen Eingaben der Nutzer (d. h. Emotionen und Probleme) zugeschnitten. So kann zum Beispiel einem Teilnehmer, der angibt, dass er sich ängstlich fühlt, eine Entspannungsstrategie angeboten werden, die ihm hilft, den Moment zu bewältigen.1

Einen Sonderfall stellen der Chatbot ChatGPT und vermutlich bald folgende ähnliche Chatbots dar. Denn ChatGPT gibt bereits Antworten auf eigens formulierte medizinische Fragestellungen und ist im Gegensatz zu Therapie-Chatbots kaum reguliert – die Antworten sind also nicht von Expertinnen vorgeschrieben und geprüft worden. Es gibt daher erste Forderungen, den Chatbot als Medizinprodukt einzuordnen und das Programm damit auch verschiedenen Regularien zu unterwerfen.2 Noch ist unklar, ob neue Gesetze für solche Chatbots entwickelt werden und in welchem Ausmaß Nutzer diese allgemeinen Chatbots auch für medizinische Fragen konsultieren werden.

Sollte ein Chatbot auf Therapiegespräche spezialisiert werden, müsste dieser – nachdem die Grundlagen von Sprache erlernt worden sind – mithilfe erfolgreicher Therapiegespräche gefüttert” und trainiert werden. Das schließt wiederum viele Fragen an. Zum Beispiel, ob dabei eine bestimmte Therapieschule verwendet werden und woher die hierfür benötigte große Menge an erfolgreichen, transkribierten Therapiegesprächen kommen soll.

Ein Blick in die Glaskugel: Welche Anwendungsfelder künstlicher Intelligenz in Psychologie und Psychotherapie sind denkbar?

Auch wenn künstliche Intelligenz noch keinen systematischen Einzug in die Versorgungsstrukturen gefunden hat, lohnt sich ein Blick auf mögliche Anwendungsfelder.

Diagnostik psychischer Erkrankungen

Ein mögliches Anwendungsfeld künstlicher Intelligenz liegt darin, die Diagnostik psychischer Erkrankungen zu unterstützen. So könnten KI-basierte Modelle basierend auf verschiedenen Parametern Hinweise darauf geben, in welche Richtung eine vertiefende Diagnostik sinnvoll sein könnte und so die Diagnosestellung erleichtern.

Um das zu ermöglichen, müssen KI-Modelle mit verschiedenen Daten trainiert werden. Bisher werden Diagnosen basierend auf Selbstberichten und mit Hilfe validierter Fragebögen oder Interviews gestellt. Neben diesen bereits vorliegenden Patientendaten wird auch die Datengewinnung aus der Mensch-Computer-Interaktion diskutiert. Beispiele dafür stellen das Swipe- oder Scrollverhalten von Nutzern dar. Auch andere Daten wie die Stimmlage und Schrittprofile einer Person können für Vorhersagemodelle herangezogen werden. Die Theorie dahinter ist, dass sich diese Parameter vermutlich ändern, sobald jemand (psychisch) erkrankt – und sich dann beispielsweise weniger bewegt oder verlangsamt spricht.

Erste Ergebnisse aus der Forschung

Gerade im Bereich schwerer Erkrankungen wie Schizophrenie ist das Erkennen von Frühwarnzeichen und eine frühe Diagnosestellung von großer Bedeutung. Eine Studie fand heraus, dass durch die Ergänzung eines KI-Modells, welches anhand verschiedener Prädiktoren trainiert wurde, zur Experteneinschätzung die Rate an falsch-negativen Diagnosen einer Schizophrenie verringert werden konnte.3
Ein anderes Beispiel stellen erste Untersuchungen zur Stimmanalyse dar. So konnte eine Studie beispielsweise zeigen, dass ADHS anhand von Stimmanalysen überwiegend gut vorhergesagt werden konnte – insbesondere bei jüngeren weiblichen Teilnehmerinnen (eine Zielgruppe, bei der ADHS sonst häufig übersehen wird).4 

Auch im Bereich der Suizidprävention gibt es erste Studien zur Untersuchung von Vorhersagemodellen. Hierbei werden beispielsweise Betroffene kontaktiert, die laut einem Modell ein erhöhtes Suizidrisiko aufweisen, wodurch die Inanspruchnahme von Hilfe erhöht werden kann.5 In einer anderen Studie verbesserten klinische Notizen und öffentliche Daten die Vorhersage von Suiziden nach der Entlassung aus einem psychiatrischen Krankenhaus durch ein maschinelles Lernmodell.6

Therapieunterstützung

Um Therapieeffekte zu verbessern, könnten auf künstlicher Intelligenz basierende Vorhersagemodelle frühzeitig auf mögliche Therapieabbrüche oder Symptomverschlechterungen hinweisen. Dadurch könnten Psychotherapeuten sensibilisiert werden und gegebenenfalls intervenieren. KI-Modelle könnten auch – zum Beispiel im Rahmen von modularer Psychotherapie – die Therapieplanung bzw. Modulauswahl unterstützen.

Ein weiterer Anwendungsfall könnte in Hilfestellungen zwischen Therapiesitzungen liegen – also in einer Form von Blended Care. So könnten Betroffene beispielsweise regelmäßig ihre Symptome und Stimmung messen und daraufhin Empfehlungen für Übungen zwischen den Sitzungen erhalten.

Erste Ergebnisse aus der Forschung

Es gibt erste Forschungsprojekte, die sich mit der Vorhersage von Therapieabbrüchen und einer bestmöglichen Therapieplanung auseinandersetzen. Häufig werden dafür Feedbacksysteme eingebaut. Das heißt, Patientinnen geben beispielsweise jede Woche ihre Symptome an und basierend auf Algorithmen können Psychotherapeuten dann bei schlechten Prognosen von einem System gewarnt werden.7,8,9 Erste Forschungsprojekte befassen sich zudem bereits mit der Wahl der bestmöglichen Therapie für Patientinnen – beispielsweise der Wahl zwischen einer kognitiven Verhaltenstherapie oder einer interpersonellen Psychotherapie bei Depressionen.10,11

Wo liegen Chancen und Risiken des Einsatzes von künstlicher Intelligenz in Psychologie und Psychotherapie?

Betrachtet man die unterschiedlichen Chancen und Risiken, muss man zunächst zwischen den Anwendungsfeldern differenzieren. So gehen frei verfügbare Therapie-Chatbots beispielsweise mit anderen Vor- und Nachteilen einher, als eine KI-gestützte Therapieplanung. 

Chancen KI-gestützter Psychotherapie

Es gibt einen großen Bedarf, die Diagnostik und Behandlung psychischer Erkrankungen zu verbessern, was sich beispielsweise in der hohen Zahl der Nonresponder bei Depressionen widerspiegelt.12,13 Auch die hohe Rate an Komorbiditäten und die Reliabilitäts- und Validitätsprobleme bestehender Klassifikationssysteme verdeutlichen den Handlungsbedarf. Gerade die Diagnostik seltener, komplexer und schwerer Erkrankungen könnte vom Einsatz künstlicher Intelligenz profitieren. Denn KI-Modelle beziehen neben bisherigen Diagnostik-Instrumenten weitere Datenpunkte mit ein, wodurch die Diagnostik valider werden könnte. Damit könnte dann auch die Rate der falschen oder übersehenen Diagnosen verringert und Chronifizierungen, schwere Verläufe und Schädigungen verhindert werden. 

Außerdem könnten Therapieeffekte verbessert und möglicherweise die Rate an Nonrespondern verringert werden. Die Psychotherapie kann damit auch immer individualisierter und personalisierter werden. Im Fall von Blended Care liegt außerdem eine Chance darin, längere Therapiepausen zu überbrücken und eine bessere Integration des Erlernten in den Alltag zu ermöglichen.

Chancen von Therapie-Chatbots

Hochwertige und evidenzbasierte Therapie-Chatbots bieten durch die Niedrigschwelligkeit die Chance, Menschen, die keinen Zugang zu psychotherapeutischer Versorgung haben, anzusprechen. Ein Chatbot kann genauso wie andere digitale Therapieprogramme außerdem ein erster Schritt sein, um eine Aufklärung und Prävention psychischer Erkrankungen in Anspruch zu nehmen. Chatbots stehen zudem zu jeder Tages- und Nachtzeit zur Verfügung. Dazu kommt, dass auch wenn Menschen theoretisch Zugang zu bestehenden Versorgungsstrukturen haben, sie diese aus verschiedenen Gründen oft nicht nutzen. Dabei können Angst vor Stigmatisierung ebenso eine Rolle spielen wie mangelnde Mobilität oder andere Gründe. So können eventuell auch erste Barrieren abgebaut und der Zugang zu Versorgungsstrukturen geöffnet werden. 

Risiken KI-gestützter Psychotherapie

Neben dem großen Potential und den vielen möglichen Chancen ist es genauso wichtig, die Risiken zu betrachten. Im Rahmen der Therapieunterstützung stellt sich beispielsweise die Frage der Verantwortung und der Haftung. Denn auch KI-getriebene Empfehlungen können Fehleinschätzungen enthalten – KI-Modelle sind eben nur so gut, wie unsere bisherigen Daten sie trainiert haben. Die Entlastung durch eine KI-gestützte Diagnostik könnte auch das Risiko in sich bergen, dass Psychotherapeutinnen von der Technologie abhängig werden und zu sehr darauf vertrauen – möglicherweise werden dann erlernten Kompetenzen zunehmend verlernt. Dazu kommt, dass KI-Modelle uns kaum helfen, ein besseres Verständnis von psychischen Erkrankungen zu erlangen und keine Kausalschlüsse zulassen. Wir würden unsere Entscheidungen also auf Empfehlungen stützen, ohne die Entstehung dieser Empfehlung nachvollziehen zu können.

Um KI-Modelle zu verwenden, bedarf es einer Menge Daten – sowohl im Training als auch in der Anwendung. Daran schließt sich die Frage nach dem Datenschutz an. Wo und wie lange werden die Daten gespeichert und wer hat darauf Zugriff? Auch die Gefahr von Hackerangriffen muss bedacht werden, um die sensiblen Daten jederzeit gut schützen zu können. Die Daten bergen ein weiteres Problem: Sollten von bestimmten Personengruppen wenig Daten vorliegen, könnten diese im Umkehrschluss womöglich weniger gut von datengestützten Modellen profitieren. Dies könnte die soziale Ungleichheit und mangelnde Partizipation im Gesundheitswesen verstärken. 

Ganz unabhängig davon, welche KI-Modelle in der Versorgung Einzug erhalten, besteht immer auch das Risiko, dass bereits bestehende Versorgungsstrukturen dadurch gekürzt werden könnten. Zudem steckt die Forschung und Anwendung von künstlicher Intelligenz noch in den Kinderschuhen und langfristige Konsequenzen sind noch nicht erforscht und absehbar.

Risiken von Therapie-Chatbots

Therapie-Chatbots gehen mit einer Reihe von Risiken einher. Zunächst setzen Therapie-Chatbots üblicherweise Fragen und Techniken aus der Psychotherapie um – wie das Hinterfragen von Denkmustern. Gerade bei kognitiven Techniken kann es jedoch sehr schwierig für Betroffene sein, sofort in die Umsetzung zu kommen und Gedanken und Gefühle zu benennen. In therapeutischen Sitzungen können Psychotherapeutinnen solche Schwierigkeiten antizipieren und dabei unterstützen. Das Gefühl, die Übungen nicht richtig ausführen zu können, kann sich negativ auf das Selbstwirksamkeitserleben der Betroffenen auswirken und dazu führen, gar keine Angebote mehr wahrzunehmen. Hier braucht es ausführliche Anleitungen und Hinweise für den Umgang mit Schwierigkeiten – in einem Chatbot Gespräch kann das jedoch leicht untergehen. 

Wenn in einer Psychotherapie Therapieziele erreicht wurden, wird die Therapie ausgeschlichen und beendet. Bei Chatbots ist noch nicht klar, inwiefern dort auch eine Abhängigkeit entstehen kann und wie lange Betroffene solche Angebote nutzen. Gerade bei Menschen, die zu Rückversicherungs- oder Sicherheitsverhalten neigen, könnte die Chatbot-Nutzung diese Tendenzen verstärken. Am Ende sollte das Ziel von Therapie sein, dass sich die Beschwerden Betroffener verringern und Betroffene zunehmend Ressourcen aufbauen, ihr Selbstwirksamkeitserleben stärken und nicht mehr auf ein Sicherheitsverhalten zurückgreifen müssen. Es ist außerdem nicht klar, wie sich die dauerhafte Interaktion mit einem virtuellen Chatbot auf die sozialen Kompetenzen der Nutzer auswirkt. 

Ein weiteres Risiko in dem Kontext könnte sein, dass einige Therapie-Chatbots mit verschiedenen kostenpflichtigen Premium-Funktionen wie zusätzlichen Videositzungen mit einer Therapeutin werben. Manche Nutzer wissen möglicherweise nicht, dass Psychotherapie und digitale Gesundheitsanwendungen in Deutschland Kassenleistungen darstellen – hier braucht es eine Aufklärung und Transparenz. Zuletzt müssen auch Therapie-Chatbots ausgearbeitete Risikomanagement-Systeme vorweisen und transparent darlegen, wie sie mit Symptomverschlechterungen und Anzeichen von Suizidalität umgehen.

Ethische Fragen

Sowohl die Frage, ob die möglichen Risiken ethisch vertretbar sind, als auch die Frage, ob das Ungenutztlassen eines großen Potentials für die Versorgung hinnehmbar ist, stehen im Raum. Und ganz unabhängig davon stellt sich die Frage, ob wir KI-gestützte Anwendungen bei so einem sensiblen Thema wie der psychischen Gesundheit überhaupt einsetzen wollen. 

Im Fall des Einsatzes von künstlicher Intelligenz in der Psychotherapie müsste man darüber nachdenken, wie genau Patientinnen über den Einsatz von KI aufgeklärt werden und wie das Einverständnis abgefragt werden soll. Diese Frage stellt sich insbesondere im Zusammenhang mit Personengruppen, die so eine Einschätzung möglicherweise nicht alleine treffen können – Beispiele sind Kinder, Menschen mit Intelligenzminderung oder Menschen, die unter einer Schizophrenie leiden.

Künstliche Intelligenz bei HelloBetter

HelloBetter ist als forschendes Unternehmen in verschiedene Forschungsprojekte eingebunden – so auch in Projekte, welche den Einsatz von sogenannten Vorhersage-Modellen untersuchen. Das Forschungsprojekt „MAIKI” hat sich beispielsweise mit der Vorhersage der Depression-Symptomschwere beschäftigt.14 Dabei wurden verschiedene Daten der Mensch-Compunter-Interaktion gemessen. Beispiele stellten die Messung von GPS Daten, Tagebucheinträgen und Stimmanalysen dar. Diese Daten wurden zu einem sogenannten „digitalen Phänotypen” zusammengefasst, der dabei unterstützen kann, menschliches Verhalten und Erleben vorherzusagen. Die Studie gab Hinweise darauf, dass ein Vorhersagemodell, welches auf mobilen Daten basiert, verwendet werden kann, um tägliche Prognosen der Depressions-Symptomschwere zu geben. Dieses Forschungsprojekt verdeutlicht das Potential von datengestützten Modellen für digitale Therapieanwendungen. In unserem englischsprachigen Artikel können Sie mehr über das Projekt und Digital Phenotyping mit AI nachlesen.

Fazit zu KI in Psychologie und Psychotherapie: Hohe Risiken, aber auch vielversprechende Chancen

Noch stehen viele der Entwicklungen ganz am Anfang. Durch die immer mehr werdenden frei verfügbaren Anwendungen, welche Betroffene bereits nutzen können, ist eine Auseinandersetzung mit dem Thema unumgänglich. 

Insgesamt lassen sich sowohl ein großes Potential und viele Chancen aber auch viele ernstzunehmende Risiken identifizieren. Ein erster Schritt für den Einsatz von Künstlicher Intelligenz in der Psychologie könnte darin bestehen, Behandelnden datengestützten Werkzeuge an die Hand zu geben, welche dann so eingesetzt werden können, dass die Versorgung verbessert wird. Auch im digitalen Kontext ist ein gut durchdachter Einsatz verschiedener Vorhersagemodelle denkbar, um die psychische Versorgung weiter voranzutreiben.

Artikel teilen:Share this:

Twitter Facebook LinkedIn
  • Quellennachweis
    1. Fulmer, R., Joerin, A., Gentile, B., Lakerink, L. & Rauws, M. (2018). Using Psychological Artificial Intelligence (Tess) to Relieve Symptoms of Depression and Anxiety: Randomized Controlled Trial. JMIR mental health, 5(4), e64. https://doi.org/10.2196/mental.9782
    2. Dölger, C. (2023b, Februar 13). Chatbot: ChatGPT – Spielzeug oder Medizinprodukt? Avoxa – Mediengruppe Deutscher Apotheker GmbH. https://www.pharmazeutische-zeitung.de/chatgpt-spielzeug-oder-medizinprodukt-138457/
    3. Koutsouleris, N., Dwyer, D. E., Degenhardt, F., Maj, C., Urquijo-Castro, M. F., Sanfelici, R., Popovic, D., Oeztuerk, O. F., Haas, S. S., Weiske, J., Ruef, A., Kambeitz-Ilankovic, L., Antonucci, L. A., Neufang, S., Schmidt-Kraepelin, C., Ruhrmann, S., Penzel, N., Kambeitz, J., Haidl, T., . . . Meisenzahl, E. M. (2021). Multimodal Machine Learning Workflows for Prediction of Psychosis in Patients With Clinical High-Risk Syndromes and Recent-Onset Depression. JAMA Psychiatry, 78(2), 195. https://doi.org/10.1001/jamapsychiatry.2020.3604
    4. Gg, V. P., E, A., Amunts, J., J, L., Patil, K. R., Eickhoff, S. B., Helmhold, F. & D, L. (2021). Predicting adult Attention Deficit Hyperactivity Disorder (ADHD) using vocal acoustic features. medRxiv (Cold Spring Harbor Laboratory). https://doi.org/10.1101/2021.03.18.21253108
    5. D’Hotman, D. & Loh, E. (2020). AI enabled suicide prediction tools: a qualitative narrative review. BMJ health & care informatics, 27(3), e100175. https://doi.org/10.1136/bmjhci-2020-100175
    6. Kessler, R. C., Bauer, M. S., Bishop, T. M., Bossarte, R. M., Castro, V. M., Demler, O. V., Gildea, S. M., Goulet, J. L., King, A. J., Kennedy, C. J., Landes, S. J., Liu, H., Luedtke, A., Mair, P., Marx, B. P., Nock, M. K., Petukhova, M. V., Pigeon, W. R., Sampson, N. A., . . . Weinstock, L. M. (2023). Evaluation of a Model to Target High-risk Psychiatric Inpatients for an Intensive Postdischarge Suicide Prevention Intervention. JAMA Psychiatry. https://doi.org/10.1001/jamapsychiatry.2022.4634
    7. Delgadillo, J., De Jong, K., Lucock, M., Lutz, W., Rubel, J. A., Gilbody, S., Ali, S., Aguirre, E., Appleton, M., Nevin, J., O’Hayon, H., Patel, U., Sainty, A., Spencer, P. S. & McMillan, D. (2018). Feedback-informed treatment versus usual psychological treatment for depression and anxiety: a multisite, open-label, cluster randomised controlled trial. The Lancet Psychiatry, 5(7), 564–572. https://doi.org/10.1016/s2215-0366(18)30162-7
    8. Lambert, M. J., Whipple, J. L. & Kleinstäuber, M. (2018). Collecting and delivering progress feedback: A meta-analysis of routine outcome monitoring. Psychotherapy, 55(4), 520–537. https://doi.org/10.1037/pst0000167
    9. Lutz, W., Rubel, J. A., Schwartz, B. S., Schilling, V. N. L. S. & Deisenhofer, A. (2019). Towards integrating personalized feedback research into clinical practice: Development of the Trier Treatment Navigator (TTN). Behaviour Research and Therapy, 120, 103438. https://doi.org/10.1016/j.brat.2019.103438
    10. Huibers, M. J., Cohen, Z. D., Lemmens, L. H., Arntz, A., Peeters, F., Cuijpers, P. & DeRubeis, R. J. (2015). Predicting Optimal Outcomes in Cognitive Therapy or Interpersonal Psychotherapy for Depressed Individuals Using the Personalized Advantage Index Approach. PLOS ONE, 10(11), e0140771. https://doi.org/10.1371/journal.pone.0140771
    11. Deisenhofer, A., Delgadillo, J., Rubel, J. A., Böhnke, J. R., Zimmermann, D., Schwartz, B. S. & Lutz, W. (2018b). Individual treatment selection for patients with posttraumatic stress disorder. Depression and Anxiety, 35(6), 541–550. https://doi.org/10.1002/da.22755
    12. Cuijpers, P., Miguel, C., Harrer, M., Plessen, C. Y., Ciharova, M., Ebert, D. S. & Karyotaki, E. (2023). Cognitive behavior therapy vs. control conditions, other psychotherapies, pharmacotherapies and combined treatment for depression: a comprehensive meta‐analysis including 409 trials with 52,702 patients. World Psychiatry, 22(1), 105–115. https://doi.org/10.1002/wps.21069
    13. Lambert, M. J. (2017). Maximizing Psychotherapy Outcome beyond Evidence-Based Medicine. Psychotherapy and Psychosomatics, 86(2), 80–89. https://doi.org/10.1159/000455170
    14. Kathan, A., Harrer, M., Küster, L., Triantafyllopoulos, A., He, X., Milling, M., Gerczuk, M., Yan, T., Rajamani, S. T., Heber, E., Grossmann, I., Ebert, D. D. & Schuller, B. W. (2022). Personalised depression forecasting using mobile sensor data and ecological momentary assessment. Frontiers in digital health, 4. https://doi.org/10.3389/fdgth.2022.964582
  • Hinweis zu inklusiver Sprache

    Unser Ziel bei HelloBetter ist es, alle Menschen einzubeziehen und allen Menschen die Möglichkeit zu geben, sich in unseren Inhalten wiederzufinden. Darum legen wir großen Wert auf eine inklusive Sprache. Wir nutzen weibliche, männliche und neutrale Formen und Formulierungen. Um eine möglichst bunte Vielfalt abzubilden, versuchen wir außerdem, in unserer Bildsprache eine große Diversität von Menschen zu zeigen.

    Damit Interessierte unsere Artikel möglichst leicht über die Internetsuche finden können, verzichten wir aus technischen Gründen derzeit noch auf die Nutzung von Satzzeichen einer geschlechtersensiblen Sprache – wie z. B. den Genderdoppelpunkt oder das Gendersternchen.

Unsere Artikel werden von Psycho­log­innen, Psycho­thera­peut­innen und Ärztinnen geschrieben und in einem mehrschrittigen Prozess geprüft. Wenn du mehr darüber erfahren willst, was uns beim Schreiben wichtig ist, dann lerne hier unser Autorenteam kennen.

HelloBetter CME Fortbildungen

Sie möchten mehr über DiGA erfahren oder sind noch auf der Suche nach interessanten Fortbildungen? HelloBetter lädt regelmäßig führende Experten für Fortbildungen ein und bietet die Möglichkeit, gemeinsam in den Austausch zu gehen. Erfahren Sie mehr zu unseren bevorstehenden CME-Fortbildungen und melden Sie sich kostenfrei an.

Zu den Fortbildungen

Fachnewsletter abonnieren

Erhalten Sie spannende Fachartikel und Neues aus dem Bereich E-Mental-Health direkt in Ihr Postfach!

Jetzt anmelden