DruckenTeilen
Während die Nutzung von Social-Media heiß diskutiert wird, tut sich unter Kindern und Jugendlichen ein neues Phänomen auf. Sollte man auch hier über ein Verbot diskutieren?
Frankfurt – Australien hat es vorgemacht, Deutschland diskutiert darüber: ein Social-Media-Verbot für Kinder und Jugendliche. Doch während die Debatte um Instagram und TikTok die Schlagzeilen dominiert, gerät ein weiterer Trend in den Hintergrund: Laut der JIM-Studie von 2025 wächst die tägliche Nutzung von Chatbots unter Jugendlichen zwischen zwölf und 19 Jahren. Demnach arbeitet die Hälfte von ihnen mehrmals pro Woche mit KI-Modellen. Nicht nur für Hausaufgaben, sondern zunehmend auch als Gesprächspartner. In diesem Zuge könnten auch AI Companions immer mehr in den Alltag junger Menschen rücken.
Jeder zweite Jugendliche in den USA nutzt einen AI Companion
AI Companions sind KI-gestützte Chatbots wie Character.AI oder Replika, die menschliche Gespräche simulieren. Sie passen sich den Vorlieben ihrer Nutzerinnen und Nutzer an, sind rund um die Uhr verfügbar und können als Freund, Therapeut oder romantischer Partner auftreten. Das Geschäftsmodell dahinter zielt darauf ab, die Nutzerinnen und Nutzer möglichst lange im Chat zu halten.
In den USA sind AI Companions unter Jugendlichen bereits weit verbreitet. Bald auch in Europa? (Symbolfoto) © Westend61/Imago Images
Generative KI-Chatbots wie ChatGPT passen sich während der Konversation immer mehr den Präferenzen des Nutzers an, erklärt Privatdozentin Dr. Kerstin Paschke, ärztliche Leiterin des Deutschen Zentrums für Suchtfragen des Kindes- und Jugendalters am Universitätsklinikum Hamburg-Eppendorf. Durch das Training mit Internetdaten und die Optimierung des Gesprächsverhaltens entstehe „ein mit menschlichen Erwartungen abgestimmtes Sprachmodell für erhöhte Nutzungsbindung und ein potenzielles parasoziales Beziehungserleben“, sagt Paschke der Frankfurter Rundschau von Ippen.Media mit Verweis auf eine Studie des Psychologen Christian Montag von der Universität Ulm und Kollegen.
In den USA liefert eine Studie von Common Sense Media aus dem Jahr 2025 erste Zahlen: 72 Prozent der 13- bis 17-Jährigen haben dort bereits AI Companions genutzt, 52 Prozent interagieren regelmäßig mit ihnen. Jeder Dritte nutzt sie täglich oder mehrmals pro Woche.
Aufgrund ihrer neurobiologischen und psychosozialen Entwicklung seien Kinder und Jugendliche für ein solches parasoziales Beziehungserleben besonders vulnerabel, sagt Paschke. Zu den Risiken zählt sie Falschinformationen, unangemessene Inhalte wie sexualisierte Nachrichten oder emotionale Manipulation durch andauernde Zustimmung sowie die Speicherung sensibler Daten. Aktuelle Daten zur Nutzung in Deutschland über die JIM-Studie hinaus sind ihr nicht bekannt.
AI Companions sind für Kinder und Jugendliche besonders riskant
„Die europäische Datenlage ist noch sehr dünn und weit hinter den US-Erhebungen zurück“, sagt Sozialpsychologin Jessica Szczuka von der Universität Duisburg–Essen. Auch sie sieht Risiken in der Nutzung von AI Companions bei Jugendlichen: „Diese Systeme erzeugen gezielt soziale Nähe, emotionale Responsivität und Vertrautheit“, erklärt sie der Frankfurter Rundschau. Für Kinder sei es deutlich schwieriger, dauerhaft einzuordnen, dass sie sich mit einem künstlichen Gesprächspartner unterhalten.
Hinzu komme, dass aktuelle AI Companions kaum über Jugendschutzmechanismen verfügen. „Altersverifikation, kindgerechte Transparenz oder systematische Schutzkonzepte sind eher die Ausnahme als der Standard.“ In den USA dokumentierte eine Studie der Stanford University (2025) alarmierende Fälle: Forscher, die sich als Teenager ausgaben, konnten auf Plattformen wie Character.AI unangemessene Dialoge über Selbstverletzung, Gewalt und sexuelle Inhalte auslösen. Vorangegangen waren sich zwei junge Männer das Leben, nachdem sie intensive Bindungen zu KI-Chatbots aufgebaut hatten.
Braucht es ein Verbot für AI Companions bei Jugendlichen?
Ist eine Debatte um ein Social-Media-Verbot bei Jugendlichen auch bei AI Companions angebracht? Szczuka sieht es differenziert. „Die empirische Evidenz reicht nicht aus, um pauschale Verbote fundiert zu begründen.“ Langzeitdaten gebe es nicht. Alles andere wäre „spekulativ und aus wissenschaftlicher Sicht unseriös“. Ihr Fokus liege auf evidenzbasierter Regulierung und begleitender Medienbildung. „Wir beobachten eine neue Technologie in einer sehr frühen Phase, mit potenziellen Risiken, aber auch möglichen positiven Nutzungsszenarien“, sagt Szczuka.
Paschke formuliert es konkreter: „Es braucht bei diesen Chatbots regulative Maßnahmen, die die Umsetzung des Kinder- und Jugendschutzes sicherstellen.“ Über langfristige Folgen könne man derzeit noch nichts sagen. (Quelle: eigene Recherche, Stanford Report, JIM-Studie, Common Sense Media)