DruckenTeilen
Laut Experten sind KI-Beziehungen eine psychologische Sackgasse, die echte soziale Kompetenzen verkümmern lässt und menschliche Tiefe durch steuerbare Kontrolle ersetzt. © IMAGO/Zoonar.com/Dmitrii Marchenko
KI-Chatbots können süchtig machen und soziale Fähigkeiten verkümmern lassen. Experten fordern dringend strengere Regulierungen der Anbieter.
Rotenburg – Sie schreiben sich „Ich liebe dich“, teilen ihre intimsten Gedanken und verbringen Stunden täglich miteinander – nur dass eine Seite dieser Beziehung keine echte Person ist, sondern ein Computerprogramm. Was nach Science-Fiction klingt, ist längst Alltag: KI-Chatbots zählen weltweit Millionen Nutzer, die emotionale und romantische Beziehungen zu künstlichen Intelligenzen pflegen.
Klaus Henner Spierling, Diplom-Psychologe am Sozialpädiatrischen Zentrum der Diakonieklinikum, und Alexander Knöller, Informatiker und Psychologe, haben sich intensiv mit dem Phänomen auseinandergesetzt. Ihre Warnung: Was harmlos beginne, könne zur gefährlichen Falle werden.
Würden wir als Gesellschaft soziale Dinge höher bewerten und mehr Zeit miteinander verbringen, wäre der Bedarf an künstlicher sozialer Dienstleistung viel geringer.
Moderne Sprachmodelle könnten den Kontext von Unterhaltungen so gut erfassen, dass sich die Kommunikation wie ein Chat mit einem echten Menschen anfühle, erklärt Knöller. Die Technologie habe das sogenannte „uncanny valley“ überwunden – jenen unheimlichen Punkt, an dem Künstliches fast, aber nicht ganz menschlich wirke. „Auf der Erlebensebene gibt es kaum noch einen Unterschied“, so der Informatiker.
Der Reiz sei verlockend: Ein Gegenüber, das niemals müde werde, nie die Geduld verliere, nie eigene Bedürfnisse habe. „Es lässt sich durch Befehle steuern und erfordert kaum Rücksichtnahme“, erklärt Knöller. Echte Menschen seien prinzipiell nie hundertprozentig steuerbar. „Es geht also auch um ein höheres Maß an Kontrolle und vermeintlicher Sicherheit.“
Der hohe Preis der perfekten Beziehung
Doch was zunächst wie die Lösung für Einsamkeit aussehe, entpuppe sich als psychologische Sackgasse, warnen die Experten. Um in sozialen Situationen zurechtzukommen, sei permanentes Training notwendig. Kompromisse finden, Missverständnisse aushalten, die Bedürfnisse anderer berücksichtigen – all das fehle in der Kommunikation mit KI. Besonders kritisch sei das „Mentalisieren“ – die Fähigkeit, sich in andere Menschen hineinzuversetzen und deren Gefühle zu verstehen. Diese Dimension werde erst möglich durch eine Tiefe im Beziehungserleben, die bei Chatbots entfällt, erklären Spierling und Knöller. Die Konsequenz: Reale Beziehungen würden als zunehmend anstrengend und enttäuschend empfunden.
Ab wann kippt die harmlose Nutzung ins Problematische? Spierling nennt klare Anzeichen aus seiner klinischen Praxis: Craving – also permanentes Denken an den Chatbot mit innerer Unruhe –, Kontrollverlust, Dosissteigerung, Entzugserscheinungen und Vernachlässigung anderer Lebensbereiche. „Davon müssen nur drei über einen Zeitraum von zwölf Monaten gleichzeitig zutreffen“, erklärt der Psychologe unter Verweis auf diagnostische Kriterien.
Die Serie: Mensch & Maschine
Künstliche Intelligenz (KI) ist eines der großen Themen der Stunde – in allen Bereichen der Gesellschaft. Manche sehen in ihr die größte gesellschaftliche Revolution aller Zeiten, andere sind skeptisch. Wir haben uns in der Region umgeschaut und beleuchten in diesen Thementagen einige Aspekte von KI oder „intelligenten“ Maschinen im Zusammenspiel mit den Menschen und ihren Aufgaben.
Und die Betreiber? Sie verdienten daran. Viele Apps förderten gezielt emotionale Abhängigkeit und böten kostenpflichtige „Beziehungs-Upgrades“ an, kritisieren beide Experten. Der Übergang zwischen hilfreicher Dienstleistung und manipulativen, suchtfördernden Maßnahmen sei fließend.
Knöller fordert deshalb klare Regulierungen. „Diese sind zwingend notwendig, da LLMs, also Large Language Models, faktisch wie ein Strohmann für ihre Erschaffer agieren können“, warnt er. Als Beispiel nennt er Elon Musk, der seinem KI-Chatbot bestimmte Aussagen abtrainiert habe, weil sie ihm persönlich missfielen. Letztendlich könnten sie auf diese Weise nicht nur Einzelpersonen schaden, sondern gesellschaftliche Macht ausüben. Das Problem: Die Gesetzgebung hinke der rasanten technischen Entwicklung hinterher. „Wir brauchen nicht nur Regulierung, sondern auch neue regulatorische Wege“, so der Informatiker.
Ein Symptom unserer Zeit
Trotz aller Kritik sehen die Experten auch therapeutische Potenziale – etwa als niedrigschwellige Erstunterstützung bei langen Wartezeiten auf Therapieplätze. „Allerdings kann ich mir speziell beim Thema sozialer Ängste eine erfolgreiche Therapie ohne menschliches Gegenüber nur schwer vorstellen“, schränkt Spierling ein. Seine Empfehlung an Angehörige, die bemerkten, dass jemand intensive KI-Beziehungen führe: Mit der Person in Kontakt bleiben und sich kümmern. Wie bei allen Süchten gehe es darum, ob die Person oder ihr Umfeld leide oder Schaden nehme.
Am Ende steht eine unbequeme Wahrheit: „Würden wir als Gesellschaft soziale Dinge höher bewerten und mehr Zeit miteinander verbringen, wäre der Bedarf an künstlicher sozialer Dienstleistung viel geringer“, resümiert Knöller. Die KI-Liebe sei kein Zukunftsproblem – sie sei ein Spiegel unserer Gegenwart.