DruckenTeilen
Bisher gibt es für Kriegsdrohnen keine einheitliche rote Linie auf EU- oder NATO-Ebene. Oder können wir uns diese bei der Weltlage gar nicht erlauben?
Als Russland 2022 seine Großinvasion gegen die Ukraine startete, setzte das Land auf Drohnen. Mithilfe der unbemannten Flugkörper konnte das ukrainische Militär dem überlegenen Angreifer erhebliche Verluste zufügen – bis heute. Der Einsatz von Drohnen ist seither in der modernen Kriegsführung nicht mehr wegzudenken. Sie werden schneller, präziser, tödlicher – vor allem durch Künstliche Intelligenz (KI). Diese rasante Entwicklung wirft Fragen nach Leitlinien und Grenzen auf.
Derzeit gibt es einen „Flickenteppich“ aus EU-, NATO– und nationalen Regelungen, wenn es um Kriegsdrohnen geht. Bei KI-gestützten Systemen reden Kritiker von einer Grauzone und die Regulierung hinke der Technologie hinterher. Auch Politikwissenschaftlerin Ingvild Bode sieht den Einsatz von Kriegsdrohnen nicht ausreichend durch einheitliche und rechtlich verbindliche Leitlinien in Europa geregelt. Das gelte vorwiegend für die Art von Kriegsdrohnen, die in der Ukraine oder auch im Iran-Krieg eingesetzt werden, also kleinere, „günstigere“ Systeme, wie die Professorin von der Universität Süddänemark der Frankfurter Rundschau von Ippen.Media sagt.
EU und NATO: Einheitliche Leitlinien für Kriegsdrohnen fehlen
Die Expertin vom „Center for War Studies“ betont, dass es auf regionaler Ebene (EU, NATO) keine rechtlich bindenden Regeln zum Einsatz von Kriegsdrohnen oder KI-gestützten Systemen gibt. So sei die AI-Strategie der NATO etwa nicht rechtlich verbindend, sondern stelle eine freiwillige Verpflichtung dar. Und auf EU-Ebene trat zwar 2024 mit dem „EU AI Act“ das weltweit erste umfassende KI-Gesetz in Kraft, doch es schließt den Militärbereich explizit aus. Grund: Den Einsatz militärischer Aktivitäten sollen vorrangig Völkerrecht und das nationale Recht regeln.
Doch selbst auf nationaler Ebene haben, wie Bode sagt, ebenfalls viele europäische Staaten keine Regelungen formuliert – mit Ausnahmen wie Großbritannien, Frankreich und der Schweiz. Einen Grund für die Grauzone sieht die Expertin darin, dass vor allem seit dem Beginn des Ukraine-Kriegs viele europäische Staaten militärischen Nutzen in diesen Systemen sehen. Die unsichere geopolitische Lage würde dieses Denken befördern.
Militärischer Nutzen und moralische Grenzen: die Debatte um autonome KI-Drohnen
Bleibt es also am Völkerrecht hängen? Das gilt laut Bode unstrittig für KI-gestützte Drohnen und Systeme. Es sei aber unklar, welche spezifischen Gebote und Verbote sich daraus ergeben. Denn diese Systeme werfen neue Fragen auf, beispielsweise im Bereich der Qualität menschlicher Kontrolle. Dazu schreitet die Entwicklung rasant voran. „Das Völkerrecht stolpert hinterher. Das war schon immer so“, meint der promovierte Völkerrechtler Klemens Fischer.
Im Gespräch mit der Frankfurter Rundschau von Ippen.Media erklärt er, dass für bewaffnete Drohnen zunächst die gleichen Regelungen wie für andere Waffensysteme gelten. Mit der Ausnahme: Sie müssen von einem Menschen gesteuert werden. Bei den autonomen KI-Kriegsdrohnen, die selbstständig Ziele auswählen und bekämpfen, sieht das anders aus. „Damit taucht ein neues Waffensystem auf, das völkerrechtlich gesehen Fragen aufwirft“, sagt der Politikwissenschaftler von der Universität zu Köln. In anderen Worten: KI-gesteuerte Kriegsdrohnen bilden derzeit eine Grauzone im Völkerrecht.
„Denkverbot“ bei Drohnen würde Russland und Iran in die Karten spielen
Auf der anderen Seite, betont der Experte, würde ein „Denkverbot“ dieser neuen Kriegswaffe europäischen Staaten mehr schaden als nutzen. „Unsere Feinde forschen weiter, entwickeln schnellere, tödlichere Drohnen, und wir stehen dann mit Knüppeln vor Robotern an der Front.“ Solange der Gegner ein bestimmtes Waffensystem einsetzt, dürfe man es sich selbst nicht verbieten, um verteidigungsfähig zu bleiben. Auch wenn Fischer die Frage nach der Moral versteht, hier müsse man Realist bleiben. Grenzen zieht er aber deutlich, wenn es um den Einsatz von Drohnen geht. „Hier benötigen wir völkerrechtlich neue Konventionen.“ Diese werden sich laut ihm aber erst aus den Erfahrungen von Drohneneinsätzen ergeben. Das könne Jahre dauern.
Schon jetzt häufen sich Fälle von Drohnenangriffen, die von Menschenrechtsorganisationen ausdrücklich als mutmaßlich völkerrechtswidrig eingestuft werden. „Wir sehen anhand der exzessiven Entwicklung und Proliferation dieser Systeme ganz genau, was ohne solche Grenzen passiert“, warnt Bode. Laut ihr geht es nicht um ein komplettes Verbot KI-gestützter Systeme, sondern vielmehr um deren „verantwortliche“ Entwicklung und Nutzung. Hier spielt für Bode das menschliche Urteilsvermögen weiterhin eine wichtige Rolle. Es bilde die Grundlage für die Einhaltung des Völkerrechts.
Völkerrecht und Kriegsdrohnen: Expertin appelliert an europäische Werte
Aber am Ende geht es nach Ansicht der Expertin bei der Regulierung von KI-gestützten Drohnen nicht nur um moralische und rechtliche Fragen. Es gibt, wie sie ausführt, nach wie vor deutliche Lücken in der Funktionalität und Zuverlässigkeit dieser Systeme. Als Beispiel nennt sie die bekannten „Halluzinationen“ oder Fabrikationen von generativen KI-Systemen, wodurch sie nicht zwischen Realität und Fiktion unterscheiden können. Laut Aussage verschiedener führender KI-Entwickler sind diese Fabrikationen mathematisch unvermeidbar.
Bode hält fest: „Eine nicht regulierte Form von KI-gestützten Drohnen, die zum Einsatz kommt, ist also nicht unbedingt ‚besser‘ als eine KI-gestützte Drohne, die durch Regulierung sicher und vorhersagbar funktioniert.“ Bei der Debatte um Drohnenregulierung steht für sie auch die Frage im Raum, für welche Werte europäische Staaten stehen wollen, also etwa der Schutz des Völkerrechts. Eine komplette Ablehnung dieser Werte ist in ihren Augen sowohl moralisch als auch strategisch kurzsichtig. (Quellen: eigene Recherchen und Gespräche)