DruckenTeilen
Die NATO beobachtet Russlands Aufrüstung – auch in der „kognitiven Kriegsführung“. Ihr Experte für Strategische Kommunikation sieht einen massiven Wandel nahen.
München – Janis Sarts ist seit über zehn Jahren in der NATO der Mann für „Strategische Kommunikation“. Erste kritische Frage an den Direktor des „NATO-Exzellenz-Zentrums für Strategische Kommunikation“ also: Will man mit seinen Freunden oder Verbündeten wirklich „strategisch kommunizieren“? „Wir tun nicht dasselbe wie die Russen, diese Manipulation von Fakten“, sagt der Lette der Frankfurter Rundschau von Ippen.Media beim Treffen am Rande der Münchner Sicherheitskonferenz. „Es ist ein Versuch, sich nach außen zu verteidigen. Auch die Freiheit menschlicher Entscheidungen.“

NATO-Direktor Janis Sarts sieht große Aufgaben auf die NATO zukommen – auch weit abseits klassischer Rüstung. © Montage: Alexander Kazakov/Kremlin Pool/picture alliance/dpa/Planet Pix via ZUMA Press Wire/fkn
„Manipulation“ bedeute, Menschen ihr eigenes Denken und ihre Autonomie zu nehmen – „in Demokratien tun wir das nicht“, betont Sarts. Stattdessen gehe es bei strategischer Kommunikation zum Beispiel darum, gemeinsame Schritte auf die gleiche Weise zu erklären. „Das ist erstmal ziemlich simpel. Aber Sie wissen aus der deutschen Politik, dass das nicht immer passiert.“ Große Sorgen bereitet Sarts aber im Kampf „um die Gehirne“ vor allem KI. „Das ist ein Wandel in der Menschheitsgeschichte“, sagt er. Und meint damit: auch im Ringen von Demokratien mit ihren autokratischen Gegnern.
„Russland ist jetzt wieder im Spiel“ – NATO-Direktor warnt vor Kampf „Maschine gegen Maschine“
Herr Sarts, Sie haben 2022 in einem Interview gesagt, Russland habe den Informationskrieg um die Ukraine schon verloren. Gilt das noch?
Im ersten Jahr der vollständigen Invasion hat Russland den Informationskampf tatsächlich verloren – aber es hat sich neu aufgestellt. Russland ist jetzt wieder im Spiel. In der Ukraine sind sie weiterhin nicht stark, aber sie nehmen die Unterstützernationen ins Visier. Das kann Lettland sein, Deutschland oder die USA. Sie haben sich auf Länder verlegt, in denen sie größere Chancen sehen.
Sie gehen davon aus, dass KI große Umwälzungen auch an dieser Front mit sich bringen wird.
Da würde ich gerne erst einmal zurückblicken. Erstens: Wir haben schon im letzten halben Jahr eine Industrialisierung des Informationskampfes erlebt. Bislang saßen da Trolle von 8 bis 17 Uhr – man konnte beinahe die Schichtwechsel mitverfolgen. Jetzt erledigen das Roboter. Und der Umfang ist, naja… groß. Zweitens sehen wir eine bessere Vernetzung der Systeme. Die funktionieren so ähnlich wie Drohnenschwärme. Und drittens: KI-Accounts werden gerade sehr „menschlich“.
Deutschland nicht in den Top 3: Die Nato-Länder mit den größten Truppenstärken

Was bedeutet das praktisch?
Ein Beispiel: Hier in München gibt es sicher Unterbezirke – und die haben meist eine Facebook-Gruppe. Dort tritt so ein KI-System bei, beteiligt sich an allen möglichen Diskussionen. Ist sehr aktiv, passt sich sehr gut dem Tonfall an; auf welchem Feld auch immer. Und dann versucht es, das Ganze in eine bestimmte Richtung zu beeinflussen. Die meisten Leute dürften nicht die leiseste Ahnung haben, dass sie es mit einer KI zu tun haben. Diese KIs erscheinen als vollständig menschlich. Sie sind sogar für unsere Systeme schwer zu erkennen. Dann passiert aber noch etwas anderes.
Und zwar?
„Data Poisoning“. Das ist der Versuch, KI-Modelle – insbesondere ChatGPT – dazu zu bringen, Fragen auf eine vom Manipulator gewünschte Weise beantworten zu lassen. Da manipulieren Maschinen andere Maschinen. Das ist ein sehr aktueller Trend. Und zu guter Letzt gibt es natürlich noch Deep Fakes. Ungefähr ein Viertel des Contents ist dieser Tage schon nicht menschengemacht.
Einiges davon erkennt man aber, zum Beispiel auf Instagram.
Manchmal – wenn all diese Tiere Dinge tun. Da weiß man: Das kann nicht wirklich passiert sein. Aber wenn die Macher nicht ganz so übertreiben, wenn es um eine kleine Botschaft in einem bestimmten Kontext geht, bekommen die meisten Menschen gar nicht mit, dass sie einem Deep Fake aufgesessen sind. Unserer Einschätzung nach wird es davon immer mehr geben. Als Größenordnung: Ich würde sagen, 50 Prozent der Inhalte, die wir nutzen und beobachten, werden Deep Fakes sein. Aber das ist nur der aktuelle Stand. Die Dinge entwickeln sich schnell.
Kampf der Systeme – über KI: „Fundamentaler Wandel in der Menschheitsgeschichte“
Was erwarten Sie für die Zukunft?
Gerade sprechen alle über agentische KI-Systeme. Wir erwarten, dass sie auf lange Sicht auf einzelne Menschen feinabgestimmtes Microtargeting betreiben. Mit der Fähigkeit, Emotionen zu lesen, sich auf Reaktionen einzustellen – die sind wirklich gut im psychologischen Profiling. In Echtzeit. Und dann sind da noch „KI-Beziehungen“.
Das gibt es schon.
Ja, Apps, die Beziehungen bieten. Für einsame Menschen etwa, manchmal geht es dabei auch um „intime“ Beziehungen. Aber sie werden künftig auch gebaut, um Menschen zu beeinflussen. Da hat man dann KI-Kompagnons, zu welchem Zweck auch immer – und sie werden letztlich die Weltsicht der Nutzenden beeinflussen. Letztlich wird es darauf hinauslaufen, dass Maschinen Maschinen überzeugen. Und wir werden nicht mehr glauben, was wir sehen. Das ist ein fundamentaler Wandel in der Menschheitsgeschichte. Bisher wusste man: Wenn man eine Tür sieht, ist sie real. Das funktioniert nicht mehr. Und das wird Auswirkungen haben.
Das klingt nach massiven Aufgaben, nicht nur für die NATO, sondern für unsere Gesellschaften.
Das ist so. Aber natürlich kann diese mächtige Technologie auch Schutzsysteme aufbauen. Es wird darauf ankommen, ob wir die nötige Technologie schaffen können, um Menschen in diesem neuen Umfeld zu schützen.
Und, sind wir auf einem guten Weg?
Das ist der Grund, warum ich dieser Tage immer wieder über dieses Thema spreche. Wir haben gerade zusammen mit Oxford und Cambridge einen Bericht veröffentlicht. Es gibt bedeutende Denker und Professoren, die sagen, dass wir uns genau darum kümmern müssen. Besonders in Europa. Wir haben keine Zeit zu verlieren.
Lassen Sie uns trotzdem nochmal auf die menschliche Ebene blicken. Sie sagen, Fact-Checks und sogenanntes Debunking funktionieren nicht. Das wären schlechte Nachrichten für den Journalismus. Warum glauben Sie das?
Dazu haben wir Datensätze. Sagen wir, es kursiert irgendein Hoax. Oder eine erfundene Information, die viral geht. 100.000 Menschen haben sie gesehen – und einen Tag später gibt es einen kompletten Fact-Check. Was wir typischerweise sehen: Normalerweise hat der Check eine Reichweite von ein paar tausend Menschen. Und vielleicht überlappt sich nicht einmal ein Prozent der beiden Empfängerkreise. In unseren Online-Umfeldern nehmen wir Dinge emotional wahr, nehmen sie mit – und machen weiter.
Was ist die Alternative?
Es taucht selten etwas aus dem Blauen heraus auf. Gewisse Faktoren triggern Algorithmen, davon auszugehen, es sei vielversprechend, etwas zu promoten. Typischerweise, dass viele Accounts etwas geliket haben. Wenn jemand ein robotisches Netzwerk mit fünf oder auch 10 000 Accounts lenkt, setzt er da an. Greift etwas auf und lässt es sich verbreiten. Wenn man weiß, welche Bot-Accounts typischerweise genutzt werden; wenn man ein Monitoring-System hat und die typischen Quellen kennt, bekommt man frühzeitig eine Warnung. Dann kann man versuchen zu „prebunken”.
Das bedeutet?
Eine Art Impfung. Die Wissenschaft hat gezeigt, dass das so ziemlich der einzig praktikable Weg ist: Man gibt den Leuten im richtigen Kontext eine Vorschau auf das Kommende – und einen Ort, an dem sie selbst die Fakten überprüfen können. Ohne Emotionen. Später hat der Hoax dann keine Wirkung mehr.
Beispiel Ukraine: „Auf diese Weise können wir uns als Menschen verbünden – und gewinnen“
Spielt „Vertrauen“ noch eine Rolle?
Vertrauen ist wichtig – aber auch eine spannende Angelegenheit. Bislang ist das Vertrauen in die Regierung und „vertikale Strukturen“ zerbrochen. Bei horizontalen Strukturen ist das anders.
Also: Menschen vertrauen ihrem Gegenüber auf der Straße, aber nicht den Institutionen?
Schauen Sie: Menschen gehen zu Airbnb. Sie haben eine Person nicht mal gesehen und lassen sie in ihr eigenes Apartment. Das ist ein sehr grundlegendes Vertrauen, oder? Ich würde also sagen, Vertrauen als solches ist nicht verschwunden. Es liegt nur nicht mehr in den Hierarchien der Macht, sondern in den Netzwerken der Menschen. Wir vertrauen bestimmten Dingen nicht mehr – und dafür verschiedenen anderen. Manchmal ist das gar nicht so gut, zum Beispiel bei bestimmten KI-Systemen. Aber in anderen Fällen kann man wichtiges Vertrauen durch menschliche Netzwerke zurückbringen.
Haben Sie dazu vielleicht ein mutmachendes Beispiel?
Die Ukraine. Russland war sehr bekannt dafür, raffinierte Online-Operationen auszuführen. Aber Anfang 2022 wollte auf einmal die ganze Ukraine der Welt mitteilen, was dort passiert. Plötzlich haben die Ukrainerinnen und Ukrainer die ganzen Bots übertönt, als menschliches Netzwerk. Was also nötig und noch möglich ist – ich bin mir aber nicht sicher, wie lange noch: dass Menschen als Gesellschaft zusammenkommen. Typischerweise passiert das in Krisen. Menschen verbinden sich. Auch um sicherzustellen, dass keiner verlorengeht und diese Dinge glaubt.
Warum hilft das so stark?
Es geht darum, dass wir uns nicht instinktiven und emotionalen Reaktionen ergeben, sondern das nutzen, was uns zu Menschen macht. Da geht es um Vernunft. Aber die Wissenschaft hält diesen Pfad für schwierig. Weil das sehr viel Energie kostet. Aber auf diese Weise können wir uns als Menschen verbünden – und gewinnen. (Interview: Florian Naumann)