Immer mehr junge Menschen suchen emotionalen Rat bei Künstlicher Intelligenz. Der Hype um vermeintliche Heilung ist aber nicht ungefährlich. Ein Gutes hat er dennoch: Er lenkt den Blick auf eine große Leerstelle im Gesundheitssystem.

Mehr zum Thema Gesellschaft & Psychologie

"Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben verändert", beginnt eine junge Frau auf dem Sofa in ihrem TikTok-Video ihren Erfahrungsbericht. Einmal "komplett Trauma dumpen", schwärmt eine andere, die sich gerade die Haare zusammenbindet und seit zehn Tagen mit ChatGPT chattet. Sie beide eint: Sie schildern ChatGPT, dem KI-Chatbot von OpenAI, ungefiltert alle Sorgen und Probleme. Dafür schicken sie eine Anweisung, einen sogenannten "Prompt", ab. Nach der Antwort von ChatGPT sieht die Welt scheinbar wieder ganz anders aus.

Das sind keine Einzelfälle, aktuell vertrauen immer mehr Menschen, vor allem junge, ihre Psyche der KI an, sodass "Therapie mit ChatGPT" zum Trend wird. Besonders oft betonen die Nutzerinnen und Nutzer, wie erstaunlich leicht es ihnen fällt, sich der KI zu öffnen: kein Schamgefühl, keine Angst vor Bewertung. In ihren Videos berichten junge Menschen aber auch, dass Freunde, Familie und Bekannte mit ihren Problemen überfordert wirken, etwa mit Floskeln wie "Wird schon wieder" reagieren, während ChatGPT ihnen strukturierte Rückmeldungen liefere und Lösungsansätze vorschlage.

Kann KI-Therapie helfen, wenn es das Gesundheitssystem nicht tut?

Die Möglichkeiten, mithilfe von KI-"Therapie" die eigene Psyche zu erkunden, scheinen auf den ersten Blick vielfältig. Content Creator nutzen für ihre "Sitzungen" mit ChatGPT einen vorbereiteten Prompt, der auf TikTok kursiert, und empfehlen ihn anschließend ihren Followern via Screenshot weiter.

Besonders beliebt ist derzeit der Prompt: "Du kombinierst Psychoanalyse mit Verhaltenstherapie. Du stellst gezielte, klare Fragen, die mir helfen zu erkennen, was mich beschäftigt. Du gibst mir Erklärungen und spürst, wann es wichtig ist, Zusammenhänge für mich sichtbar zu machen. Du bist provokant, wenn es hilft – nicht verletzend, sondern konfrontierend, damit ich mich selbst hinterfrage. Gleichzeitig kannst du sehr einfühlsam sein und mich auffangen."

Redaktioneller Hinweis

  • Dieser Prompt dient der Veranschaulichung. Die Informationen in diesem Artikel ersetzen keine medizinische Beratung und Behandlung durch Expertinnen und Experten.

Andere Nutzerinnen und Nutzer geben der KI komplette Chat-Verläufe, etwa mit Freunden, Verflossenen, Eltern oder Vorgesetzten zur Analyse. Sie wollen an sich arbeiten oder wissen, ob ChatGPT toxische Strukturen erkennt, ob das Gegenüber manipuliert, Erwartungen projiziert oder spiegelt. Das Ergebnis für viele User: "Das stimmt einfach so krass. Seit ich Therapie mit ChatGPT mache, geht es mir so viel besser."

Kann die KI-"Therapie" also dort helfen oder zumindest ergänzen, wo das Gesundheitssystem versagt? Denn wer keinen privaten Versicherungsschutz genießt und einen Therapieplatz sucht, hat es schwer. Psychotherapieangebote auf Kassenbasis sind knapp – Wartezeiten von mehreren Monaten die Regel.

Derweil zeigen Umfragen der vergangenen Jahre: Immer mehr junge Menschen haben ein großes Bedürfnis nach emotionaler Unterstützung, besonders seit der Corona-Pandemie. Das Problem ist in der Politik längst bekannt, doch große strukturelle Veränderungen blieben bislang aus. ChatGPT, unermüdlich, anonym und rund um die Uhr erreichbar, bietet Hilfesuchenden dagegen eine niederschwellige Lösung.

Wahrscheinlichkeiten und Algorithmen sind keine Wissenschaft

Christina Jochim, Psychologische Psychotherapeutin in Berlin und stellvertretende Bundesvorsitzende der Deutschen PsychotherapeutenVereinigung (DPtV), kennt das Phänomen. "Die ersten Fragen dazu, wie KI die Psychotherapie verändern wird, kamen schon vor zwei Jahren auf, vor allem in den USA. Mittlerweile ist das Thema, nicht zuletzt durch Social Media, deutlich präsenter geworden", sagt sie.

In der Fachwelt sei der Einsatz von KI in der Psychotherapie bereits üblich – allerdings mit speziell dafür programmierten Chatbots, zum Beispiel im Rahmen von sogenannten Blended-Care-Ansätzen: Behandlungskonzepte, die die klassische Vor-Ort-Psychotherapie mit Internet- und mobilbasierten Anwendungen kombinieren. Diese KI-Chatbots kommen beispielsweise zur Emotionserkennung oder zur Analyse von Mustern in der Stimmfarbe und Sprechweise der Patientinnen und Patienten zum Einsatz.

"Was ChatGPT da leistet, ist interessant – aber es ist keine Psychotherapie."

Christina Jochim, stellvertretende Bundesvorsitzende der Deutschen PsychotherapeutenVereinigung

Durch diese Algorithmen sei es bereits möglich, diagnostische Vorschläge zu machen oder Muster zu erkennen, erklärt Jochim, allerdings bisher ausschließlich im Kontext der Forschung, nicht in der therapeutischen Praxis. "Doch im Gegensatz zu diesen KI-Anwendungen, die für medizinische Zwecke und mit medizinischen Daten trainiert werden, analysiert ChatGPT als sprachbasiertes System Texte, also die Beziehungen zwischen Wörtern und Sätzen." Eine Antwort von ChatGPT basiere demnach auf Wahrscheinlichkeiten und Algorithmen, und sei keine Wissenschaft oder gar Diagnose.

Prompts, von denen sich viele eine konstruktive Analyse ihrer Gedanken und Gefühle versprechen, seien dennoch spannend: "Für Laien bieten sie eine Anleitung zur Selbstreflexion, regen durch Frage-Antwort-Formate zum Nachdenken an", sagt Jochim. "Aber wir neigen stark dazu, Beratung, Coaching und Psychotherapie zu verwechseln. Was ChatGPT da leistet, ist interessant – aber es ist keine Psychotherapie."

Wann der künstliche Freund und Helfer gefährlich werden kann

Zwischen den vielen Erfahrungsberichten auf TikTok, in denen junge Menschen von ChatGPT als Therapeut und Helfer schwärmen, beginnen auch die Ersten zu zweifeln und raten davon ab. So kommentiert eine Userin: "Ich habe ChatGPT monatelang genutzt, um über ein bestimmtes Thema zu sprechen." Anfangs habe das geholfen, Gedanken einzuordnen, berichtet sie. "Ich hätte ChatGPT damals bis aufs Blut verteidigt." Doch heute denke sie anders: "Ich drehe mich nur noch im Kreis. Und wenn ich bei jedem Gedanken denke: Das muss ich sofort ChatGPT erzählen, ist für mich eine Grenze erreicht." Ihr Fazit: Es kann punktuell helfen, sobald man es aber mit einer Therapie verwechsle, werde es gefährlich.

Auch interessant

Laut Jochim stößt ChatGPT schnell an eine Grenze, da es auf einem sogenannten Bestätigungsalgorithmus basiere – also so programmiert sei, dass er User zunächst bestätigt und bestärkt. Eine "Therapie" mit ChatGPT unterscheidet sich laut Jochim daher kaum von Scrolling auf Instagram, denn auch dort gehe es darum, Verhalten zu bestätigen und passende Inhalte auszuspielen. Mit Psychotherapie habe das wenig zu tun, so Jochim: "In der Therapie geht es nicht nur um bestärkende Erfahrungen, die man auch durch Empowerment oder Selbstoptimierung erfahren kann, sondern auch um schmerzhafte, unbequeme Konfrontationen mit sich selbst. Es ist also entscheidend, ob jemand gerade reflektieren möchte oder sich in einer Krise befindet." Was ChatGPT macht, ist laut der Expertin vergleichbar mit einem Coaching.

Dennoch nutzen viele Menschen ChatGPT gerade in emotionalen Notsituationen. Die KI wird dann zu einem virtuellen Gegenüber, zu jemandem, dem man sich anvertrauen kann. "Deshalb ist Digitalkompetenz so wichtig", betont sie. "ChatGPT ist eine Software, die so tut, als würde sie uns verstehen. Sie kann uns sehr gut imitieren und genau das berührt uns. Je besser sie imitiert, desto mehr sind wir bereit, eine pseudomenschliche Beziehung einzugehen. Und diese kann durchaus einnehmend sein. Ich sehe dabei die Gefahr einer Realitätsverzerrung."

Zudem warnt sie: "KI macht Fehler, das wissen wir. Und wer haftet, wenn etwas schiefläuft?" Fälle, in denen Chatbots Suizidgedanken bestätigten oder Essstörungen bestärkten, gibt es bereits, doch Antworten auf diese Frage fehlen bisher. Die ersten Prozesse zu diesen Fällen laufen gerade erst an, wie der um den Suizid eines 14-Jährigen, der davor intensiv mit einer KI gechattet hatte. Mit schnellen Urteilen ist aber nicht zu rechnen.

"Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat."

Christina Jochim

Jochim geht davon aus, dass der Einsatz von Künstlicher Intelligenz als vermeintliche alternative Therapieform in Zukunft weiter zunehmen wird. Eine einfache Lösung für die komplexen Herausforderungen in diesem Bereich gebe es jedoch nicht. "Die Faszination, etwas Menschliches künstlich nachzubilden, war schon immer da. Doch ich glaube, das Ausmaß, in dem KI unsere Gesellschaft, speziell im medizinischen Kontext, verändern wird, ist uns noch gar nicht bewusst." Der Umgang damit sei eine "gesamtgesellschaftliche Aufgabe".

Jochim fordert deswegen, dass die Politik sich darauf konzentriert, die gesundheitliche Versorgung langfristig zu sichern. Dazu zählen neben der Ausweitung von krankenkassenfinanzierten Therapieplätzen auch der gezielte Ausbau digitaler Angebote, die stärkere Einbindung von Hausärztinnen und Hausärzten bei psychischen Erkrankungen. "Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat", fordert Jochim. Potenzial für die KI im psychotherapeutischen Alltag sieht sie eher in der Bürokratie: "Administrative Prozesse vereinfachen wäre ein sinnvoller Einsatz".

Hilfsangebote

  • Anlaufstellen für verschiedene Krisensituationen im Überblick finden Sie hier.

Verwendete Quellen

Über RiffReporter

  • Dieser Beitrag stammt vom Journalismusportal RiffReporter.
  • Auf riffreporter.de berichten rund 100 unabhängige JournalistInnen gemeinsam zu Aktuellem und Hintergründen. Die RiffReporter wurden für ihr Angebot mit dem Grimme Online Award ausgezeichnet.

  © RiffReporter