Ein neuer EU-Verhaltenskodex definiert ab sofort Kennzeichnungspflichten für KI-Systeme wie Chatbots und Deepfakes. Unternehmen müssen sich auf technische Lösungen wie Wasserzeichen vorbereiten.
Ab heute müssen Unternehmen in der EU ihre KI-Systeme auf neue Transparenzpflichten vorbereiten. Die EU-Kommission hat den Entwurf eines Verhaltenskodexes vorgelegt, der klärt, wie Nutzer über künstliche Intelligenz informiert werden müssen. Für Chatbots, Deepfakes und generative KI beginnt nun die heiße Umsetzungsphase.
Der Entwurf des „Verhaltenskodexes zur Transparenz KI-generierter Inhalte“, den die Kommission am 17. Dezember vorlegte, dient als praktische Anleitung zur Erfüllung der Vorgaben aus Artikel 50 der EU-KI-Verordnung. Die Analyse führender Beratungshäuser, die dieses Wochenende veröffentlicht wurde, zeigt: Der Kodex setzt auf einen mehrschichtigen Ansatz. KI-generierte Inhalte müssen sowohl für Menschen erkennbar gekennzeichnet als auch durch maschinenlesbare Metadaten identifizierbar sein.
Konkret sehen die Richtlinien technische Lösungen wie Wasserzeichen und Herkunftsnachweise – etwa nach dem C2PA-Standard – vor. Für textbasierte KI schlägt der Entwurf „statistische Wasserzeichen“ vor, die KI-generierten Text identifizieren, ohne das Nutzererlebnis zu stören. Experten betonen: Diese Maßnahmen sind zwar zunächst freiwillig, werden aber ab dem verbindlichen Stichtag am 2. August 2026 zum De-facto-Standard für den Nachweis der Konformität.
Anzeige
Passend zum Thema EU‑KI‑Verordnung – viele Unternehmen unterschätzen den Umsetzungsaufwand und stehen vor komplexen Kennzeichnungs- und Dokumentationspflichten. Ein kostenloser Umsetzungsleitfaden erklärt kompakt, welche Nachweise für Chatbots, generative KI und Metadaten erforderlich sind, wie Sie Risikoklassen einordnen und welche ersten Schritte jetzt sinnvoll sind. Praktische Checklisten helfen, Compliance fristgerecht vorzubereiten. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen
Artikel 50: Die drei zentralen Transparenzpflichten im Detail
In den aktuellen Compliance-Leitfäden wird eine weitverbreitete Verwirrung aufgelöst: Die berühmt-berüchtigten Transparenzregeln, lange als „Artikel 52“ bekannt, wurden im finalen Gesetzestext unter Artikel 50 der KI-Verordnung verankert. Sie umfassen drei klare Pflichten für Anbieter und Nutzer von KI-Systemen:
- Offenlegung der KI-Interaktion: Systeme, die für den Dialog mit Menschen gedacht sind – wie Chatbots oder automatische Triagesysteme – müssen den Nutzer informieren, dass er mit einer Maschine kommuniziert. Diese Information muss „spätestens bei der ersten Interaktion“ erfolgen.
- Kennzeichnung synthetischer Inhalte: Anbieter generativer KI, die Audio, Bilder, Video oder Text erzeugen, müssen ihre Outputs als künstlich generiert kennzeichnen.
- Hinweis bei Emotionserkennung: Betreiber von Systemen zur Emotionserkennung oder biometrischen Kategorisierung müssen die betroffenen Personen explizit über den Einsatz informieren.
Rechtsexperten weisen darauf hin, dass diese Pflichten kontextabhängig sind. Die Offenlegung entfällt etwa, wenn es für „eine vernünftigerweise informierte natürliche Person offensichtlich“ ist. Der neue Verhaltenskodex rät jedoch zu einer konservativen Herangehensweise und empfiehlt explizite Kennzeichnungen wie „Ich bin ein KI-Assistent“, um Compliance-Risiken zu vermeiden.
Gemischte Reaktionen und eng getakteter Zeitplan
Die Reaktionen der Tech-Branche fallen durchwachsen aus. Forscher äußerten bereits vergangene Woche Bedenken, dass die technischen Vorgaben für „unwahrnehmbare Wasserzeichen“ von sophisticateden Akteuren umgangen werden könnten – was ein trügerisches Sicherheitsgefühl erzeuge.
Dennoch drängen große Verbände ihre Mitglieder zur Teilnahme an der laufenden Konsultation. Stellungnahmen zum Entwurf des Kodexes können bis zum 23. Januar 2026 eingereicht werden. Ein zweiter Entwurf wird für März 2026 erwartet, die finale Fassung soll im Juni vorliegen. Dies gibt Unternehmen nur ein schmales Zeitfenster, um die geforderten Transparenztools zu testen und zu integrieren. Marktbeobachter verzeichnen bereits einen Boom bei „Transparenz-as-a-Service“-Startups, die vor allem kleineren Unternehmen ohne eigene Forschungsabteilung Compliance-Lösungen anbieten.
Analyse: Transparenz als neue Währung des Vertrauens
Der Drang zu strikter Transparenz erinnert an die Einführung der DSGVO, bei der „Einwilligung“ der zentrale Pfeiler war. Hier ist es das Bewusstsein. Die Strategie der EU ist klar: Vertrauen ist die Voraussetzung für Akzeptanz. Indem Nutzer wissen, wann sie mit einer KI sprechen und woher Inhalte stammen, will die EU die Risiken von Desinformation und Manipulation mindern, ohne die Technologie zu verbieten.
Kritisch ist jedoch die Unterscheidung zwischen dem (vorerst) freiwilligen Verhaltenskodex und dem hartem Gesetz der KI-Verordnung. Die Befolgung des Kodex bietet einen „Safe Harbor“ – sie gilt als Nachweis der Konformität. Unternehmen können aber auch eigene technische Wege wählen, um die Artikel-50-Pflichten zu erfüllen, sofern sie deren gleichwertige Wirksamkeit nachweisen können. Diese Flexibilität ist für Innovationen wichtig, lastet aber Unternehmen, die abweichen, einen erheblichen Nachweisaufwand auf.
Für Unternehmen lautet die dringende Handlungsaufforderung nun, alle KI-Schnittstellen – von Website-Chatbots bis hin zu automatischen E-Mail-Generatoren – zu überprüfen und an den Transparenzvorgaben des Entwurfs zu messen. Wer diese „weichen“ Deadlines ignoriert, riskiert hektische Nachrüstaktionen, wenn die verbindliche Durchsetzung im Spätsommer 2026 beginnt.
Anzeige
PS: Die Fristen rücken näher – von der laufenden Konsultation bis zur verbindlichen Durchsetzung im August 2026. Unser gratis E‑Book liefert einen klaren Fahrplan: Welche technischen Maßnahmen (z. B. Metadaten, Wasserzeichen, Offenlegungstexte) sollten Sie sofort prüfen, welche Dokumentation genügt als Nachweis, und welche Vorlagen erleichtern den Nachweis gegenüber Aufsichtsbehörden. Ideal für Datenschutzbeauftragte und Entwickler, die rechtssicher handeln wollen. Gratis-Umsetzungsleitfaden zur KI-Verordnung sichern