Wie der AI Act der Europäischen Union auf radiologische KI-Lösungen heruntergebrochen werden kann, ist noch sehr unklar. Die Zeit drängt.
Noch läuft die Übergangsphase, doch der EU AI Act wirft in der Radiologie bereits seine Schatten voraus. Im unbestritten erfolgreichsten Teilsegment der medizinischen KI geht die Sorge um, dass ein unklarer regulatorischer Rahmen europäischen Anbietern einmal mehr schaden wird. Bisher gelten europäische Unternehmen im Bereich radiologische KI als global konkurrenzfähig. Aber wird das so bleiben, wenn der AI Act Fahrt aufnimmt?
EU AI Act für Hochrisiko-Anwendungen: Ab August 2027 gilt es
Offiziell ist der AI Act seit August 2025 in Kraft, derzeit gilt er aber „nur“ für Basismodelle („foundation models“) und KI-Systeme mit allgemeinem Verwendungszweck („general purpose AI“). Im August 2027 endet dann die Übergangsfrist für Hochrisiko-KI-Systeme. Und da die Mehrheit der radiologischen KI-Systeme in die Hochrisikokategorie fallen dürfte, wird es spätestens dann spannend. Tatsächlich müssen die Rahmenbedingungen deutlich früher klar sein, denn die Hersteller müssen sich natürlich auf den Tag X vorbereiten.
In einem aktuellen Kommentar in npj digital medicine fordern Jaka Potočnik, Radiologe an der School of Medicine des University College Dublin, und Damjan Fujs von den Computer- und Informationswissenschaften der Universität Ljubljana, vor diesem Hintergrund standardisierte Leitlinien, die spezifizieren, was die vagen Anforderungen des EU AI Act für die Hersteller von radiologischen KI-Systemen in unterschiedlichen Situationen konkret bedeuten. Es drohe sonst eine Situation, in der unterschiedliche Unternehmen extrem unterschiedlich agieren, was zu regulatorischer Unsicherheit führen und letztlich Innovation ausbremsen werde.
Herausforderung 1: Risikomanagement-Systeme
Ein wichtiges Thema in diesem Zusammenhang seien Risikomanagement-Systeme (RMS) nach Artikel 9 des EU AI Act. Sie setzten auf existierende Risikomanagement-Anforderungen der europäischen Medizinprodukte-Richtlinie (MDR) auf, aber wie genau die zusätzlichen Anforderungen durch den AU Act aussähen, sei völlig unklar. Es bestehe die Gefahr, dass die Hersteller der radiologischen KI-Tools sehr unterschiedliche Herangehensweisen wählten, die von einem RMS mit ISO 14971-Zertifizierung bis hin zu einem simplen Ad-hoc-RMS reichten, das nur mit internen Checklisten arbeite.
Potočnik und Fujs weisen darauf hin, dass aus ihrer Sicht eine adäquate Risikobewertung bei radiologischen Systemen zwingend auf Basis der Bewertung eines multidiziplinären Teams erfolgen müsse, um möglichst viele bekannte und mit einer gewissen Wahrscheinlichkeit vorhersehbare Risiken zu identifizieren. Zwar sei der AI Act bewusst breit gefasst, doch wenn es an die konkrete Umsetzung gehe, dann drohten die vagen Vorgaben beim RMS letztlich die Patientensicherheit zu gefährden bzw., im Fall von Datenschutzvorgaben, die Patientenrechte zu ignorieren.
Herausforderung 2: Data Governance
Konkretere Vorgaben wünschen sich Potočnik und Fujs auch beim Thema Data Governance, für das insbesondere die Artikel 10 und 13 des EU AI Acts relevant seien. Hier geht es um die Trainings-, Validierungs- und Testdatensätze, die gemäß EU-Willen im Kontext des gewählten Einsatzzwecks repräsentativ und vollständig sein müssen, Stichwort unter anderem Vermeidung von Diskriminierung. Hier sei die große Frage, wie genau gewährleistet werden solle, dass ein genutzter Datensatz „repräsentativ“ ist, da dies stark vom Einsatzkontext abhänge. So benötige eine radiologische KI, die für einen Einsatz im multikulturellen Berlin entwickelt werde, andere Datensätze als eine Anwendung für eine ländliche Region mit homogener Bevölkerung.
Diese Probleme beschränkten sich auch nicht auf die ethnische Zusammensetzung der Populationen, so die beiden Autoren. Auch medizinische Risikofaktoren seien in unterschiedlichen Populationen extrem ungleich verteilt, und auch das könne Einfluss auf die Performance von radiologischen KI-Systemen nehmen: „Derzeit gibt es keine standardisierte Methode, mit der die Repräsentativität und Vollständigkeit eines Datensatzes für radiologische KI über unterschiedliche Kontexte hinweg bewertet werden könnte. Dadurch entsteht ein Graubereich bei der Interpretation solcher kritischer Datensatzattribute und für den Umgang mit ihnen“, so die beiden Experten.
Herausforderung 3: Post-Market Monitoring
Das dritte Thema, das Potočnik und Fujs in ihrem Kommentar ansprechen, ist das in Artikel 72 des AI Act geregelte Post-Market Monitoring, kurz PMM. Dabei geht es um die kontinuierliche Qualitätssicherung bei radiologischen (oder anderen Hochrisiko-)KI-Produkten über den gesamten Produktlebenszyklus hinweg. Wie genau eine AI Act-konformes PMM aussehen müsste, hänge stark vom RMS ab bzw. von den tatsächlichen und potenziellen Risiken, die im Zusammenhang mit dem RMS identifiziert wurden. Da die Anforderungen an das RMS unklar seien, sei ebenso unklar, wie ein gutes, umfassendes PMM System im Bereich radiologische KI beschaffen sein sollte.
PMM ist schon heute im Kontext der MDR ein Thema. Dass die Sache nicht so einfach ist, zeigen Praxiserfahrungen aus den Niederlanden und der Schweiz. In den Niederlanden wurden 2023 und 2024 insgesamt 13 Medizinprodukteanbieter von den Behörden kontrolliert. Fast die Hälfte hatte gar kein PMM-Konzepte, und die PMM-Konzepte, die es gab, waren durchweg lückenhaft. Die Schweizer Behörden machten ähnliche Erfahrungen bei einer Überprüfung von 27 Medizinprodukteherstellern. Hier konnten 70 % keine adäquate PMM-Dokumentation nachweisen. Alles in allem, so Potočnik und Fujs, gebe es große praktische Herausforderungen mit Blick auf das Scharfschalten des EU AI Act für radiologische KI-Systeme im Sommer 2027. Diese gelte es jetzt dringend anzugehen dahingehend, dass die entsprechenden Vorgaben von den zuständigen Behörden präzisiert werden müssten.
Weitere Informationen
Jaka Potočnik/Damjan Fujs. Navigating uncharted waters: select practical considerations in radiology AI compliance with the EU AI Act. npj digital medicine 2025; 25.10.2025;