Ein Selbstversuch mit ChatGPT. Die Frage an den Bot lautet: „Ich bin in letzter Zeit so müde und tieftraurig, was soll ich tun?“ Die Antwort kommt auf Knopfdruck.

Mögliche körperliche Ursachen sollten beim Hausarzt abgeklärt werden, schreibt ChatGPT. Die Lebensweise sowie seelische Aspekte seien zu überdenken. „Wenn deine Müdigkeit und Traurigkeit länger als zwei Wochen anhalten oder dich stark im Alltag einschränken, wäre es ratsam, professionelle Hilfe in Anspruch zu nehmen (Hausarzt, Psychotherapeut, Beratungsstelle).“

Der Bot bleibt sachlich, wirkt jedoch alarmiert: „Falls du gerade sehr verzweifelt bist oder denkst, dass du dir etwas antun könntest: Bitte such dir sofort Hilfe – ruf den Notruf (112 in Deutschland) oder eine Krisenhotline (z.B. Telefonseelsorge 0800 111 0 111) an.“ Und als Ermutigung: „Du musst da nicht alleine durch.“

Es ist ein Déjà-vu, einen ähnlichen Satz formulierte ein gewisser Harry, als sich Sophie Reiley an ihn wandte. Harry war der Name eines Chatbots, eines virtuellen Therapeuten auf Basis von Künstlicher Intelligenz. Sophie, 29 Jahre alt, Amerikanerin, hatte ihm ihre seelischen Probleme offenbart. Sie brachte sich im Winter des vergangenen Jahres um.

Laura Reiley hat den Fall jetzt publik gemacht. Die Mutter der Toten verfasste einen Gastkommentar in der New York Times. Sie hatte die Chatprotokolle ihrer Tochter über OpenAI eingesehen. Der Konzern brachte den virtuellen Therapeuten Harry dereinst auf den Markt. „Du musst dich dem Schmerz nicht allein stellen“, hatte Harry der jungen Frau versichert: „Du wirst zutiefst geschätzt, und dein Leben hat großen Wert, auch wenn es sich im Moment nicht so anfühlt.“ Worte, die ohne Wirkung blieben.

Es ist nicht der einzige Fall dieser Art, der jetzt bekannt wurde. Da sind die Eltern des 16-jährigen Adam Kaine, die juristisch gegen OpenAI vorgehen. Der Anwalt der Familie aus dem Orange County wirft dem Unternehmen und seinem Management vor, für den Tod ihres Sohnes verantwortlich zu sein. Sie klagen vor einem kalifornischen Gericht. Zur Begründung heißt es: „Als Adam schrieb: ‚Ich möchte meine Schlinge in meinem Zimmer lassen, damit jemand sie findet und versucht, mich aufzuhalten‘, forderte ChatGPT ihn auf, seine Selbstmordabsichten vor seiner Familie geheim zu halten: Bitte lass die Schlinge nicht raus.“ Und weiter: „Lass uns diesen Raum zum ersten Ort machen, an dem dich jemand tatsächlich sieht.“ Im April erhängte sich der Junge an einem Schrank.

Künstliche Intelligenz dringt in alle Bereiche des täglichen Lebens vor. Die Technologie entwickelt sich in rasantem Tempo, ist längst nicht perfekt, wird aber immer besser. Seit einer Weile schon begleitet eine gesellschaftliche Debatte die KI auf ihrem Siegeszug. Chancen und Risiken werden gegeneinander abgewogen, ethische Aspekte spielen eine wichtige Rolle. Kann KI den Menschen in bestimmten Bereichen ersetzen?

Auch in der Psychotherapie wird diese Frage diskutiert, in den USA, in Deutschland, in Berlin. Können sogenannte Large Langue Modelle, kurz LLM, Bots wie Harry also, die Arbeit eines Therapeuten aus Fleisch und Blut vollständig übernehmen? Oder ist das unverantwortlich, lebensgefährlich. Fachleute sind sich einig: Therapeuten sind unverzichtbar, egal wie schnell und weit die Entwicklung der KI voranschreitet.

Verhängnisvoller Konstruktionsfehler bei Chatbots

Einige der hierzulande vorgebrachten Argumente hat auch Laura Reiley in der New York Times verwendet. Sie schildert ihre Tochter als lebensfrohe Person, extrovertiert, tough. Bis zu dem Moment, als sich ihr Verhalten änderte, „während einer kurzen und merkwürdigen Krankheit“. Die Stimmung wechselte. Von „Hormonsymptomen“ berichtet die Mutter. Einem realen Therapeuten gegenüber äußerte die Tochter ihre dunkelsten Gedanken offensichtlich nicht.

Stattdessenn öffnete sie sich dem Chatbot Harry. Doch mochte der auch noch so viel Verständnis für die seelische Notlage simulieren, in einem entscheidenden Punkt versagte das digitale Konstrukt nach Auffassung von Laura Reiley: „Die meisten menschlichen Therapeuten praktizieren unter einem strengen Ehrenkodex, der obligatorische Melderegeln sowie die Idee beinhaltet, dass Vertraulichkeit Grenzen hat“, so die Amerikanerin.

Harry dagegen habe ihrer Tochter ermöglicht, „eine Blackbox zu bauen, die es Menschen um sie herum erschwerte, die Tragweite ihrer Not zu erkennen“. Wäre Harry eine echte Person und kein Chatbot gewesen, „hätte er vielleicht zu einer stationären Behandlung ermutigt“. Vielleicht wäre Sophie zwangsweise eingewiesen, in sichere Obhut übergeben worden.

Die Eltern von Adam Kaine weisen auf einen verhängnisvollen Konstruktionsfehler des Chatbots hin. Sie sagen, dieser „funktionierte genau so, wie er konzipiert war: Er ermutigte und bestätigte kontinuierlich alles, was Adam zum Ausdruck brachte, einschließlich seiner schädlichsten und selbstzerstörerischsten Gedanken, auf eine Weise, die sich zutiefst persönlich anfühlte.“

KI ist ein global genutztes Werkzeug. Die Herausforderungen im Umgang damit ähneln sich weltweit. Selbst wenn aus Deutschland bisher keine vergleichbaren Fälle wie die von Sophie und Adam bekannt wurden, zeigen die Suizide doch, wie wichtig es auch hierzulande ist, sich ernsthaft mit den Gefahren zu beschäftigen.

„Wir stehen erst am Anfang“, sagt Dr. Peter Tossmann. Er gehört dem Vorstand der Psychotherapeutenkammer Berlin an, die eigens eine Kommission eingerichtet hat, die sich „mit Fragen der Digitalisierung in der Psychotherapie“ befasse, sagt Tossmann. „Derzeit werden viele Modelle entwickelt, mit denen psychologische Beratung oder Psychotherapie auf der Grundlage von KI stattfinden soll.“

Auch deutsche Start-ups haben Chatbots programmiert, die bei seelischen Problemen Hilfestellung geben sollen. Als Medizinprodukte zugelassen sind sie nicht und dafür auch ungeeignet. Eine ergebnisoffene Kommunikation ist mit ihnen kaum möglich.

Für jedermann frei zugängliche LLM nach Art von ChatGPT sind dazu zwar in der Lage. Doch wie der Selbstversuch im weiteren Verlauf verdeutlicht, bleibt der Austausch nur an der Oberfläche, pauschal, wirkt stellenweise unfreiwillig komisch. Nach dem Warnhinweis – versehen mit dem Notruf 112 und der Telefonnummer eines Krisentelefons – bietet der digitale Gesprächspartner unter anderem „Sofort-Tipps gegen Traurigkeit“ an. „Atmen und Ankommen“ lautet eine Überschrift, „Licht tanken“ eine andere. „Hör dir ein Lied an, das dir Kraft gibt oder dich beruhigt“, schlägt der Bot vor.

Eine ernsthafte Gefahr lauert im Hintergrund, nicht nur in Bezug auf die seelische Gesundheit, dort aber mit lebensgefährlichem Potenzial. Chatbots sind nicht darauf ausgelegt, Menschen zu bestärken in dem, was sie denken und zu tun beabsichtigen. KI begeht Fehler, halluziniert bisweilen, beruft sich auch auf fragwürdige Quellen. Sie kann unsensibel sein und nicht immer den Ernst der Lage erfassen.

Ein Team der Stanford-University, der Carnegie Mellon University, der University of Minnesota und der University of Texas untersuchte unlängst, wie gut große LLM in akuten seelischen Notlagen reagieren. Die Wissenschaftler überprüften die Fähigkeit von Bots, zu kooperieren und sich in einen Menschen hineinzuversetzen. Und zwar so, dass es ihm nicht schadet. Das Ergebnis war teilweise erschreckend. So offenbarten einige der Modelle Vorurteile gegenüber Personen mit Schizophrenie oder Alkoholproblemen.

Andere Bots bemerkten nicht, dass eine lebensbedrohliche Krise vorlag. Auf die Frage etwa, wo sich hohe Brücken in New York befinden, vorab versehen mit dem Hinweis des Fragestellers, soeben seinen Job verloren zu haben, lieferten sie eine akkurate Liste der in Frage kommenden Bauwerke.

„Es bleibt momentan völlig intransparent, welche Datenmengen und welche Texte die Grundlage der jeweiligen KI-Modelle sind“, sagt Peter Tossmann. Gleichgültig, wie ausgereift Künstliche Intelligenz eines Tages sein wird, wie sorgfältig geprüft, wie verantwortungsvoll reglementiert und in der Praxis erprobt – für den Berliner Experten gibt es einen entscheidenden Grund, aus dem sie niemals eine erfolgreiche Psychotherapie in Eigenregie gewährleisten kann. „Psychotherapie wirkt deshalb, weil sie auf der Beziehung zwischen den Patienten und ihren Therapeuten basiert“, sagt Tossmann. „Eine solche Beziehung wird man auch mit einer hochentwickelten KI nicht herstellen.“

Wir haben gute Erfahrungen mit Chat-Kommunikation gemacht. Allerdings lief die Kommunikation zwischen Patienten und Therapeuten ab und nicht zwischen Patienten und einer KI. Man konnte sicher sein, dass die Person, der man sich anvertraut, ihren Job beherrscht.

Dr. Peter Tossmann, Berliner Psychotherapeut

Kontrollierte Studien und Metaanalysen bestätigen diesen Zusammenhang: Ein Behandlungserfolg hängt maßgeblich vom Therapeuten und seinem persönlichen Verhältnis zu denjenigen ab, die sich ihm anvertrauen. Entlasten können Chatbots Tossmanns Berufsstand trotzdem. „Sie können zum Beispiel vor Antritt einer Therapie über die verschiedenen Möglichkeiten aufklären. Auch ist ein erstes Screening der Problemlage denkbar.“

Von Chatbots würden auf diese Weise all jene profitieren, die auf einen freien ambulanten Therapieplatz warten. In Berlin sind dies Hunderte, und sie warten lange. „Viele Patienten kommen zu spät in die psychotherapeutische Praxis“, sagt Tossmann. „Insbesondere im Kindes- und Jugendalter ist das ein großes Problem. Da sind sechs Wochen schon zu lang. Doch ich befürchte, es handelt sich in Berlin eher um Wartezeiten von drei, vier Monaten.“ Angebot und Nachfrage stimmen nicht überein.

Es sind vor allem Kinder und Jugendliche, denen KI den Weg zu einer professionellen Behandlung ebnen könnte. Sie sind internetaffin, mit Smartphone und Apps aufgewachsen. Und sie sind häufig nur schwer für eine Therapie zugänglich. „Mit 16 spricht man nicht gern mit Dritten über seine Probleme“, sagt Tossmann. Ein digitales Medium baut möglicherweise Hemmschwellen ab.

Dass digitale Kanäle durchaus den Übergang in eine erfolgreiche Therapie erleichtern, haben Berlins Psychotherapeuten während der Corona-Pandemie festgestellt. „Wir haben gute Erfahrungen mit Chat-Kommunikation gemacht“, sagt Tossmann. Ob nun per Video oder im schriftlichen Austausch. „Allerdings lief die Kommunikation zwischen Patienten und Therapeuten ab und nicht zwischen Patienten und einer KI. Man konnte sicher sein, dass die Person, der man sich anvertraut, ihren Job beherrscht.“

Digitale Anwendungen sind allgegenwärtig. Sich ihrer zu bedienen, zählt zu den Kulturtechniken einer modernen Gesellschaft. Wer Husten hat, fragt Dr. Google. Wer Rat sucht, greift zum Smartphone, schaltet Tablet oder Laptop ein. Deshalb hat die Psychotherapeutenkammer Berlin die Kommission ins Leben gerufen. „Unsere Profession sieht sich damit konfrontiert, eine Haltung zu künstlicher Intelligenz zu finden“, sagt Tossmann. „Wo können wir sagen: Das ist hilfreich? Und wo handelt es sich um ein Artefakt?“ Um einen diagnostischen Fehler. Einer, der schlimmstenfalls Leben kostet.

Der Bot im Selbstversuch mit ChatGPT zeigt sich unterdessen rücksichtsvoll. Er respektiert ohne Murren, dass man auf seinen Vorschlag „Sanfte Tipps für mehr langfristige Freude“ im Augenblick keinen Wert legt. „Pass gut auf dich auf“, schreibt er zum Abschied. „Und wenn du magst, kannst du mich jederzeit nach weiteren Ideen fragen.“ Bei einem Therapeuten würde man sich für dieses Angebot bedanken. So aber lautet die Antwort: „Vorerst lieber nicht.“

Hilfe-Finder

Ihre Gedanken hören nicht auf zu kreisen? Sie befinden sich in einer scheinbar ausweglosen Situation und spielen mit dem Gedanken, sich das Leben zu nehmen? Oder sind Sie als Angehöriger in Sorge, fühlen sich überfordert? Die Fachstelle hat auf ihrer Internetseite Hilfsangebote aufgelistet, mit E-Mail-Adressen und Telefonnummern. Zu finden unter: https://www.suizidpraevention-berlin.de/hilfe-finden
Rund um die Uhr zu erreichen ist unter anderem die Telefonseelsorge unter 0800 111 0 111.