Die erste Phase des EU AI Act ist seit einem Jahr aktiv, mit strengen Verboten und hohen Sanktionen. Nun läuft der Countdown für die nächste, umfassendere Regulierungsstufe für Hochrisiko-KI.

Seit zwölf Monaten verbietet die EU bestimmte riskante KI-Anwendungen – jetzt wird die Bilanz gezogen. Die Aufsichtsbehörden sind aktiv, und für Unternehmen beginnt der Countdown für die nächste, noch strengere Regulierungsstufe.

Seit dem 2. Februar 2025 ist die erste Phase des EU AI Act in Kraft. Sie untersagt europaweit KI-Systeme, die ein inakzeptables Risiko für Grundrechte darstellen. Dieser Schritt sollte Vertrauen schaffen und die dringendsten Bedrohungen eindämmen. Gleichzeitig mussten die Mitgliedstaaten ihre Marktüberwachungsbehörden aufbauen. Seit August 2025 können Verstöße mit hohen Geldstrafen geahndet werden. Für die Wirtschaft ist es eine kritische Anpassungsphase. Denn schon in einem halben Jahr, im August 2026, treten die umfassenden Regeln für Hochrisiko-KI-Systeme in Kraft.

Anzeige

Passend zum Thema EU‑KI‑Regulierung: Viele Unternehmen unterschätzen die neuen Pflichten und riskieren hohe Sanktionen unter dem AI Act. Der kostenlose Umsetzungsleitfaden erklärt praxisnah Kennzeichnungspflichten, Risikoklassifizierung, erforderliche technische Dokumentation und die Übergangsfristen bis August 2026. Mit konkreten Checklisten für Entwickler, Anbieter und Compliance‑Teams – ideal, um schnell zu prüfen, ob Ihre Systeme als Hochrisiko einzustufen sind und welche Nachweise erforderlich sind. Jetzt kostenlosen KI-Umsetzungsleitfaden herunterladen

Diese KI-Praktiken stehen unter strenger Beobachtung

Der Fokus des ersten Jahres lag auf Artikel 5 der Verordnung. Er listet Praktiken auf, die per se verboten sind. Die Aufsicht konzentriert sich seither auf vier Kernbereiche:

Erstens auf KI, die menschliches Verhalten manipuliert, um Nutzer zu selbstschädigenden Entscheidungen zu drängen. Zweitens ist die Ausnutzung von Schwachstellen schutzbedürftiger Gruppen – etwa aufgrund von Alter oder Behinderung – strikt untersagt.

Ein weiterer Schwerpunkt ist das Verbot von staatlichen Social-Scoring-Systemen. Diese bewerten das soziale Verhalten von Bürgern, um ihren Zugang zu Dienstleistungen zu steuern. Auch die biometrische Fernidentifizierung im öffentlichen Raum durch Strafverfolgungsbehörden ist nur in engsten Ausnahmefällen erlaubt. Diese klaren Verbote sollen Rechtsicherheit schaffen und Missbrauch zur sozialen Kontrolle verhindern.

Bundesnetzagentur als zentrale Aufsichtsinstanz

Jeder EU-Staat hat eine nationale Marktüberwachungsbehörde benannt. In Deutschland fällt diese zentrale Rolle der Bundesnetzagentur (BNetzA) zu. Als Koordinierungs- und Kompetenzstelle (KoKIVO) überwacht sie aktiv den Markt, prüft stichprobenartig Produkte und geht Beschwerden nach.

Die Behörde kann von Anbietern technische Dokumentationen anfordern, um die Konformität zu prüfen. Sie arbeitet eng mit anderen europäischen Aufsichtsbehörden und dem EU AI Office zusammen. Ziel ist eine einheitliche Anwendung der Regeln in der gesamten Union. Für Unternehmen bedeutet das einen klaren Ansprechpartner, aber auch die Möglichkeit proaktiver Prüfungen bei Verdacht auf Verstöße.

Bis zu 7 Prozent des Umsatzes: Die drohenden Strafen

Seit August 2025 sind die Sanktionen scharf geschaltet. Verstöße gegen die Verbote können mit den höchsten Bußgeldern des AI Act geahndet werden. Unternehmen drohen Strafen von bis zu 35 Millionen Euro oder – falls höher – bis zu 7 Prozent ihres weltweiten Jahresumsatzes.

Diese Summen übertreffen potenziell sogar die Strafen der Datenschutz-Grundverordnung (DSGVO). Sie sollen abschreckend wirken und zeigen, wie ernst die EU die Einhaltung nimmt. Bei der Bemessung berücksichtigen die Behörden Unternehmensgröße, Schwere und Wiederholung des Verstoßes. Für KMU und Start-ups sollen besondere Umstände gelten.

Die neue Realität der KI-Compliance

Das erste Regulierungsjahr hat die Branche verändert. Unternehmen mussten ihre KI-Portfolios überprüfen und verbotene Systeme anpassen oder vom Markt nehmen. Die neuen Aufsichtsbehörden schufen eine Ebene der Rechenschaftspflicht.

Die große Herausforderung für die Behörden bleibt, den riesigen und dynamischen KI-Markt effektiv zu überwachen. Branchenverbände fordern klare Leitlinien und eine einheitliche europäische Auslegung. Nur so ließe sich Rechtsunsicherheit vermeiden und Innovation nicht unnötig hemmen. Diese Phase gilt als Testlauf für die weitaus komplexeren Anforderungen, die bald folgen.

Countdown für Hochrisiko-KI-Systeme hat begonnen

Während die Überwachung der Verbote läuft, richtet sich der Fokus der Wirtschaft bereits auf den 2. August 2026. Ab dann gelten die umfassenden Pflichten für Hochrisiko-KI-Systeme vollständig.

Das betrifft eine breite Palette: Von KI in der Personalauswahl und Kreditwürdigkeitsprüfung bis hin zu Systemen in kritischen Infrastrukturen und medizinischen Geräten. Anbieter müssen dann strenge Anforderungen an Risikomanagement, Datenqualität, Transparenz und menschliche Aufsicht erfüllen und nachweisen.

Die verbleibenden sechs Monate müssen Unternehmen intensiv nutzen. Es geht darum, Compliance-Strukturen aufzubauen und Systeme für die tiefgreifende Regulierung fit zu machen. Der Druck steigt.

Anzeige

PS: Die Frist für die umfassenden Pflichten läuft – sind Ihre Hochrisiko‑Systeme vorbereitet? Dieses Gratis‑E‑Book zur EU‑KI‑Verordnung fasst alle Anforderungen zusammen, liefert eine Prioritätenliste für die nächsten Monate und eine sofort nutzbare Checkliste für Risikomanagement, Datenqualität und Transparenz. Nutzen Sie die verbleibende Zeit, um Compliance‑Lücken zu schließen. KI-Verordnung: Umsetzungsleitfaden jetzt gratis sichern