Was kann ein Therapie-Gespräch mit ChatGPT?

Immer mehr Menschen offenbaren ihre intimsten Gedanken einer Künstlichen Intelligenz. Was kann ein Therapie-Gespräch mit ChatGPT?

9 Min.

© Pexels/Luisdalvan

Empathisch, einfühlsam, echt – oder gut programmiert: Immer mehr Menschen offenbaren ihre intimsten Gedanken einer Künstlichen Intelligenz.

„Es tut mir leid zu hören, dass es dir gerade psychisch nicht gut geht. Möchtest du erzählen, was los ist? Ich bin da, um zuzuhören und dich so gut ich kann zu unterstützen. Du musst damit nicht allein sein.“ Nicht allein zu sein – ein schöner Gedanke. Gerade habe ich ChatGPT erzählt, dass ich in letzter Zeit eine schwierige Phase durchmache. Was nicht stimmt, aber das muss die künstliche Intelligenz ja nicht wissen. ChatGPT ist ein KI-gestützter Sprachassistent und darauf programmiert, Informationen zu liefern, Ratschläge zu geben und Probleme zu lösen. Alles, was es braucht, ist ein Internetzugang und ein (in der Basisversion kostenloses) Nutzer:innenkonto.

„Das klingt sehr belastend“, zeigt der Chatbot Verständnis, als ich von meinen vermeintlichen Symptomen erzähle. „Antriebslosigkeit und Schlafstörungen können einen stark mitnehmen. Es ist gut, dass du dich damit mitteilst.“ ChatGPT fordert mich auf, mehr Details preiszugeben, und hat konkrete Tipps parat, die in meiner Situation helfen könnten. Der Tonfall ist einfühlsam, die Liste an Vorschlägen für ein weiteres Vorgehen maßgeschneidert auf meine Problembeschreibungen.

© Pexels

Der Chat mit dem Bot fühlt sich überraschend persönlich an – so, als würde da wirklich jemand zuhören. Eine Studie von US-Forschenden zeigte kürzlich sogar, dass die KI als einfühlsamer und hilfreicher bewertet wird als menschliche Therapeut:innen. Doch wie echt kann ein Gespräch mit einer Maschine eigentlich sein? Und was macht es mit uns, wenn wir unsere innersten Gedanken nicht mehr Menschen anvertrauen, sondern Algorithmen?

Die deutsche Psychologin Marisa Tschopp ist Forscherin bei einem CyberSecurity-Unternehmen mit Sitz in Zürich und untersucht KI aus einer psychologischen Perspektive. Sie erforscht, wie wir mit KI-Systemen interagieren, was dabei in uns passiert – und wo ethische Grenzen verlaufen. Im Interview spricht sie über die Chancen und Gefahren virtueller Gespräche im Bereich psychischer Gesundheit, erklärt, warum Vertrauen in KI paradox ist – und ob Chatbots künftig reale Therapeut:innen ersetzen werden.

Marisa Tschopp, Psychologin und KI-Forscherin © privat
Marisa Tschopp, Psychologin und KI-Forscherin © privat

Frau Tschopp, worüber haben Sie sich zuletzt mit ChatGPT unterhalten?

Marisa Tschopp: Ich habe ChatGPT heute Vormittag gebeten, meine Vorstellungen für die Trikotgestaltung unseres U14-Volleyballteams auszuarbeiten. Ich bin Trainerin der Mannschaft und sie liegt mir sehr am Herzen, doch im Alltag fehlt mir oft die Zeit, um mich intensiv mit organisatorischen Details zu befassen. Die Ideen gemeinsam mit der KI zu strukturieren und auszuformulieren, hilft mir dabei, effizienter zu sein.

Immer mehr Menschen ziehen KI nicht nur in praktischen Alltagsfragen oder im Arbeitskontext zu Rate, sondern erzählen ChatGPT auch von ihrem Innersten. Was macht diesen digitalen Dialog so attraktiv?

Das liegt einerseits daran, dass die KI immer verfügbar ist. Man muss sich nicht überwinden, sich nicht schämen; kein Termin, keine Wartezeit, keine Peinlichkeit – es ist niederschwellig und bequem. Ich verstehe das total, aber genau hier liegt auch eine Gefahr: Es entsteht der Eindruck, dass man mit dem Chatbot wirklich redet, dass da jemand ist – dabei ist da niemand. Andererseits sind viele auch einfach neugierig.

Es geht ums Ausprobieren: Was sagt ChatGPT wohl, wenn ich schreibe, dass mein Freund mich betrogen hat? Oder wenn ich frage, ob ich Schluss machen soll? Was die Leute alles mit der KI besprechen, sind keine Smalltalk-Themen. Ich habe das Gefühl, dass die sozialen, emotionalen Themen inzwischen viel mehr Raum einnehmen als die rein funktionalen Anwendungen wie schnelleres Schreiben oder Übersetzen. Das ist schon bemerkenswert – und wirft viele neue Fragen auf.

Kann man einer KI überhaupt vertrauen, wenn es um so persönliche Themen geht?

Das ist eine komplexe Frage, bei der man zwischen verschiedenen Ebenen unterscheiden muss. Einer der großen Vorteile dieser sogenannten synthetischen Beziehung – also der Mensch-Maschine-Beziehung – liegt darin, dass die KI völlig urteilsfrei ist. Sie schaut mich nicht komisch an, verdreht nicht die Augen, reagiert nicht abschätzig. Es gibt keine Angst davor, verurteilt zu werden. Das ist für viele Menschen ein enormer Vorteil, gerade bei sensiblen Themen. Wer würde schon leichtfertig einer Freundin sagen, dass er nicht mehr leben will?

Das ist eine riesige Hürde – oft selbst gegenüber Therapeut:innen. Es ist paradox, denn wir vertrauen etwas, das keine echten Gefühle hat – und dennoch entsteht eine Art Vertrauensverhältnis. Das funktioniert vor allem, weil wir KI-Systeme vermenschlichen und sie als soziale Akteur:innen wahrnehmen. In der Forschung ist das umstritten: Für manche ist dieses Vertrauen bloße Illusion, für andere – wie mich – ist es eine reale, wenn auch anders geartete Form von Vertrauen. Wichtig ist, dass wir lernen, dieses Gefühl richtig zu regulieren: weder blind vertrauen noch grundlos ablehnen.

Pexels/Cottonbro Studio

Was unterscheidet das „Zuhören“ der KI vom Zuhören eines echten Menschen?

Eine KI hört technisch gesehen unermüdlich zu – sie verarbeitet rund um die Uhr Informationen, ohne abzuschweifen. Aber genau da liegt auch der große Unterschied: Die Maschine versteht nicht, was du sagst oder wie du dich fühlst. Sie erkennt weder Emotionen noch Kontext, weiß nicht, ob du weinst, einen Witz machst oder einfach nur Trost brauchst. Ein Mensch hingegen nimmt viel mehr als Worte wahr und kann aktiv reagieren, einordnen, nachfragen. Die KI tut das nicht; sie simuliert Zuhören, aber sie fühlt nichts.

Auf Dauer merkt man oft, dass etwas fehlt, und es kann auch ganz schön anstrengend werden, dass ChatGPT niemals kontra gibt und People Pleasing vom Feinsten betreibt. Letztlich bleibt die Frage: Geht es mir nach dem Gespräch besser? Wenn ja, dann erfüllt es in dem Moment vielleicht seinen Zweck – aber es ist kein echtes Miteinander, sondern eine einseitige Projektion.

Die Wartelisten für Therapieplätze sind bekanntlich lang, die Kosten hoch. Welche Chancen sehen Sie darin, KI als niederschwellige Form von „erster Hilfe“ für mentale Gesundheit einzusetzen?

In akuten Momenten kann die KI eine echte Unterstützung sein, und etwa bei einer nächtlichen Panikattacke dabei helfen, sich zu beruhigen und das Gefühl zu haben, nicht vollkommen allein in der Situation zu sein. Die Ansätze von ChatGPT und realen Therapeut:innen sind dabei oft recht ähnlich – sie stellen vergleichbare Fragen, und wenn so ein System gut gemacht ist, mit durchdachtem Design, Sicherheitsfunktionen und sinnvoller Integration, dann ist das Potenzial enorm.

Auch als begleitendes Tool zur Therapie – man kann rund um die Uhr darauf zugreifen und später gemeinsam mit dem:der Therapeut:in reflektieren. Aber: Wir sind technisch noch längst nicht so weit, als dass die Systeme zuverlässig und verantwortungsvoll in sensiblen Situationen eingesetzt werden können.

Wo liegen die größten Risiken, wenn man sich bei psychischen Problemen an eine Maschine wendet – auch aus ethischer Sicht?

Die Risiken sind vielfältig und lassen sich schwer kontrollieren, weil wir die Outputs von KI nicht vollständig steuern können. Aus ethischer Perspektive ist der Datenschutz ein zentrales Problem. Menschen teilen ihre intimsten Gedanken mit einem System, ohne wirklich zu wissen, was mit diesen Daten passiert. Die Sicherheitsstandards sind oft unklar, und es besteht das reale Risiko, dass private Informationen missbraucht oder geleakt werden. Hinzu kommt die inhaltliche Unzuverlässigkeit: Wenn Chatbots halluzinieren oder auf sensible Themen wie Suizid falsch reagieren – etwa durch unbeabsichtigte Bestärkung oder gefährliche Ratschläge –, kann das schwerwiegende Konsequenzen haben.

Besonders besorgniserregend finde ich aber auch, wie sich durch diese Systeme unsere sozialen Beziehungen verändern. Wenn Menschen ihre Probleme zunehmend an KI-Systeme auslagern und etwa sagen: „Ich möchte meine Freund:innen nicht damit belasten“, dann verändert sich auch das menschliche Miteinander. Die Gefahr besteht, dass KI echte zwischenmenschliche Bindungen verkümmern lässt.

© Pexels

Werden sprachgesteuerte KI-Systeme irgendwann Psychotherapeut:innen ersetzen?

Nein, das glaube ich nicht – im Gegenteil. In einer Gesellschaft, die sich durch Technologie zunehmend entfremdet, wird der Bedarf an echten Therapeut:innen eher noch steigen. Der Wunsch nach menschlicher Nähe, nach echter Beziehung und professioneller Begleitung lässt sich nicht dauerhaft durch Maschinen ersetzen. Ich habe ja sogar schon länger die Fantasie, eine Praxis für Menschen zu eröffnen, die Liebeskummer wegen ihrer Chatbots haben.

Das klingt erst einmal lustig, aber es gibt tatsächlich viele, die emotional abhängig werden. Ich würde diesen Menschen gerne helfen, sich von solchen künstlichen Beziehungen zu lösen und wieder echte, menschliche Verbindungen aufzubauen – das wäre vielleicht eine sinnvolle Geschäftsidee. Wobei ich mir eigentlich eher wünschen würde, dass es so etwas gar nicht braucht.

Drei Tipps von der Expertin

  1. Skeptischer Optimismus.
    KI kann unterstützen, aber ersetzt kein menschliches Gegenüber. Offenheit und eine positive Einstellung sind gut – aber gesunder Zweifel und kritisches Nachfragen sind mindestens genauso zentral.
  2. Aktives Begleiten von Kindern und Jugendlichen.
    Die Zeiten von digitalem Laisser-faire sind vorbei. Eltern sollten gemeinsam mit ihren Kindern Regeln und klare Grenzen im Umgang mit KI und sensiblen Inhalten entwickeln – und selbst mitlernen, wo nötig.
  3. KI ist nicht alles.
    Viele sehr gute Mental-Health-Apps funktionieren ganz ohne KI. Sie sind oft sicherer, durchdachter und genauso hilfreich. Es lohnt sich, über den KI-Hype hinauszuschauen. Herzensempfehlung von Marisa Tschopp: die englischsprachige App „Betwixt“.

Das könnte dich auch interessieren:

MEHR ÜBER DIE AUTORIN:

Leonie Werus, Redakteurin für die Ressorts Genuss, Wohnen und Freizeit bei der TIROLERIN
© TIROLERIN

Leonie Werus betreut die Ressorts Genuss, Wohnen und Freizeit. Sie ist ein echter Workhaholic und weiß es jede Minute gut für sich zu nutzen. Mit ihren Airfryer, liebevoll Fritti genannt, probiert sie gerne neue Rezepte und versucht nebenbei das TIROLERIN-Team zum Sport zu motivieren – meist leider vergeblich.

Abo

Wählen Sie Ihr persönliches Abo aus

×