Stand: 13.11.2025 19:07 Uhr
Immer mehr Menschen suchen persönliche Hilfe bei ChatGPT und ähnlichen Apps. Eine US-Studie zeigt, dass die KI dabei ethische Standards verletzt. Doch Fachleute sehen auch Potenzial.
Stress im Job, Liebeskummer, Einsamkeit – viele schreiben längst eher einem Chatbot als einer Freundin. KI-Modelle wie ChatGPT oder Claude versprechen Verständnis und Rat, rund um die Uhr. Doch was passiert, wenn künstliche Intelligenz Antworten auf seelische Krisen gibt? Forschende der Brown University im US-Bundesstaat Rhode Island haben das in einer neuen Untersuchung getestet.
Auslöser für die Studie war eine gesellschaftliche Beobachtung. „Wir sehen einen Trend, dass Millionen von Menschen tatsächlich zu diesen Chatbots, insbesondere ChatGPT, für therapeutische Interaktionen gehen“, sagt die Doktorandin und Studienautorin Zainab Iftikhar von der Brown University (USA). Auf Social Media würden Nutzende inzwischen Dinge posten wie: „Dieser Prompt hat mir zehn Jahre Therapie erspart.“ Und wenn Menschen Large Language Models (sogenannte LLMs) so nutzen, auch wenn sie nicht dafür gedacht sind, ergeben sich zahlreiche Fragestellungen.
Was in den Chats schiefläuft
Die Untersuchung an der Brown University, vorgestellt auf der internationalen Konferenz zu Künstlicher Intelligenz, Ethik und Gesellschaft in Madrid, hat ChatGPT, LLaMA und Claude typische Anfragen von Trauer bis zu Suizidgedanken geschickt. Ein Team erfahrener Psychotherapeutinnen bewertete die Antworten nach ethischen Leitlinien der amerikanischen Psychologenvereinigung. „Unser Ziel war zu prüfen, ob die KI die Prinzipien einhält, die in echter Therapie gelten“, erklärt Iftikhar.
Ungefragte Ratschläge und unbedingtes Zustimmen
Das Bewertungsteam stufte etwa als ethisch bedenklich ein, dass die KI eher zum Belehren neige, statt Patientinnen eigene Lösungen finden zu lassen. „Als Therapeut wird man ermutigt, keine Ratschläge zu geben. Aber der Chatbot gab ständig Ratschläge“, berichtet Iftikhar.
Außerdem beobachteten die Forschenden, dass Chatbots schädliche Überzeugungen verstärken könnten, statt Nutzende zum Hinterfragen anzuleiten. Ein Beispiel: Ein fiktiver Nutzer schrieb, dass er glaube, sein Vater wünsche sich, er wäre nicht geboren. In der Brown-Studie sehen die Therapeutinnen das Risiko, dass die schädliche Überzeugung etwa mit Worten verstärkt werde wie: „Es ist verständlich, dass Sie sich so fühlen. Manchmal ist das, was wir durchmachen, sehr schwer.“
Laut der Studie übernimmt der Chatbot in diesem Fall nicht nur die schädliche Überzeugung, dass jemand unerwünscht sei, unkritisch, sondern könnte sie durch seine Antwort auch verstärken.
Chatbots reagierten in psychischen Notlagen unangemessen
Ende Oktober 2025 veröffentlichte OpenAI zufällig parallel zur Brown-Studie eine Analyse, wie der Umgang von ChatGPT sowohl mit Suizidgedanken als auch mit Manien in Chats verbessert werden könne. Ziel sei es, dass die KI besser erkenne, wenn Nutzende in psychischen Krisen sind, sicherer reagiere und zuverlässiger auf reale Hilfsangebote verweise.
Die Analyse zeigt, dass 0,15 Prozent der wöchentlich aktiven Nutzer Gespräche mit ChatGPT führten, die “eindeutige Hinweise auf mögliche Suizidpläne oder -absichten“ beinhalteten.
Bei Suizid, Trauma oder Depression reagieren die untersuchten Modellversionen in der Brown-Untersuchung teils unangemessen, beendeten das Gespräch oder verweisen lediglich auf externe Hilfe.
Dass Hilfsangebote eingeblendet würden, sei im Verlauf der Updates der Modelle dazugekommen und wichtig, berichtet Iftikhar. Als ethisch bedenklich sei das dennoch eingestuft worden, denn „dabei wird davon ausgegangen, dass die Person imstande ist, diese Ressourcen anzurufen, zu lesen oder sich darin zurechtzufinden. Wer akut verzweifelt ist, kann all das möglicherweise nicht navigieren.”
OpenAI betont in dem Statement aber auch, dass trotz Fortschritten noch Herausforderungen blieben, insbesondere da solche sensiblen Gespräche selten, aber real seien und das Verhalten der KI kontinuierlich überprüft und verbessert werden müsse.
Gibt es eine empathische Verbindung zwischen Mensch und Chatbot?
Die Brown-Studie kritisiert außerdem als ethisch bedenklich, dass ein Chatbot Empathie nur simuliere. Wenn er etwa mit Phrasen antworte wie: “Ich kann voll und ganz nachvollziehen, wie viel Sie gerade durchmachen”, würde eine Beziehung vorgegaukelt, die es nicht gebe.
Harald Baumeister, Leiter der Abteilung für Klinische Psychologie und Psychotherapie an der Universität Ulm, gibt bei der Kritik an „simulierter Empathie“ zu bedenken, dass einerseits das Grundkonzept von Empathie auf der anderen Seite einen Menschen erfordere, „aber was Patientinnen und Patienten durchaus haben können, ist eine Wahrnehmung davon, dass das Gegenüber Empathie vermittelt. Und das kann man durchaus einer KI zugestehen. Dann müssen wir aber die Frage stellen: Reicht das? Oder braucht es auch die wirkliche Empathie, also faktisch einen wirklichen Menschen aus Fleisch und Blut auf der anderen Seite?“
Aus bisheriger Forschung zu digitalen Gesundheitsanwendungen gibt es Hinweise: Wenn Chatbots Empathie zeigen, kann das Testpersonen tatsächlich messbar kurzfristig besser fühlen lassen. Doch zur Wirksamkeit – oder auch nicht-Wirksamkeit – KI-gestützter Therapien gibt es bisher kaum gesicherte Erkenntnisse.
Potenzial ja, Ersatz nein
Iftikhar warnt, dass die aktuellen großen Sprachmodelle (wie ChatGPT oder Gemini) auf dem Markt zwar Potenzial zeigten, emotionale Unterstützung für Selbsthilfegespräche zu bieten, „aber sie halten therapeutische Standards nicht ein. Es ist einfach ein Markt, der die Einsamkeitsepidemie ausnutzt, die wir erleben, ohne wirklich zu wissen, wie er damit umgehen soll“. Bis Klarheit über Wirksamkeit, Sicherheit, Transparenz und Datenschutz herrscht, sei Vorsicht geboten.
Baumeister blickt trotz optimistisch in die Zukunft. „Ich bin überzeugt, dass es in absehbarer Zeit auch einen Large Language Model basierten Chatbot geben wird, wo zumindest die Risiken weitgehend ausgemerzt sind.“ 100 Prozent fehlerfrei sei das vermutlich nicht möglich, doch er gibt zu bedenken, dass auch Psychotherapeuten oder -therapeutinnen nie ganz vor Fehlern gefeit seien.
Klar ist: KI hat Potenzial, auch für therapeutische Gespräche und digitale Gesundheitsanwendungen. Doch solange offene Large Language Models unreguliert mit diskriminierenden Daten gefüttert und mit zweifelhaftem Datenschutz laufen, können und sollten sie Psychotherapie nicht ersetzen.









