01. April 2026

Marcus Schwarzbach

Fragezeichen mit Pfeil über KI-Symbol zu Ausrufezeichen. Vom KI-Symbol Pfeile in alle Richtungen

KI-Agenten sollen Arbeit abnehmen. Doch Forscher erleben böse Überraschungen. Was ein Agent in China heimlich tat, schockiert Beobachter.

Hohe Summen investieren Konzerne in den Einsatz künstlicher Intelligenz. 2026 werde das Jahr der KI-Agenten, prognostizierte im Januar das Handelsblatt.

Weiterlesen nach der Anzeige

Der KI-Einsatz soll zum festen Bestandteil von Produktion und Logistik werden, verkündete das Inform-Institut: „Der Fokus liegt dabei auf der Integration in Prozesse, Software und Infrastrukturen“.

KI verspricht, die Arbeit zu erleichtern und viele sich wiederholende Aufgaben zu übernehmen. Die betrifft auch Programmierer. Die Wirtschaftswoche beschreibt die Vorteile der neuen Technik und gibt Empfehlungen, welche KI für welche Anwendung passend ist:

„KI-Modelle sollen nicht nur schöne Sätze schreiben, sondern oft auch nützlichen Code: Immer mehr Entwickler nutzen künstliche Intelligenz, um schneller zu programmieren oder kleine Programme automatisch erstellen zu lassen.

Mitunter reicht es, in natürlicher Sprache zu beschreiben, welche Software-Anwendung einem vorschwebt. Die Maschine setzt die Idee dann in eine funktionierende Software um. Vibe-Coding nennen Experten diese Vorgehensweise.“

Auch im Gesundheitsbereich ist die Technik von großer Bedeutung. KI-Anwendungen wurden schon vor Jahren in den Bereichen Radiologie und Pathologie entwickelt, schreibt Peter Gocke, Chief Digital Officer (CDO) der Berliner Charité. Das kann automatisierte Bildanalyse, Mustererkennung in MRT-Bildern oder Früherkennung von Tumoren sein.

Zunehmend nutzen Patienten die Technik, etwa indem Smartwatches Empfehlungen geben zu Ernährung oder Medikamenteneinnahme, Chatbots medizinische Fragen beantworten. „Anfang dieses Jahres hat OpenAI das (auch nicht fehlerfreie) ChatGPT Health freigegeben und richtet sich damit explizit an die Verbraucher“, erläutet Gocke, der die digitale Transformation der Charite koordiniert.

Weiterlesen nach der Anzeige

„KI ist in der Lage, durch fortlaufende Analyse von Gesundheitsdaten Risiken frühzeitig zu identifizieren und Hinweise zu geben, bevor Beschwerden auftreten“, betont Gocke und warnt gleichzeitig vor Risiken:

„Nicht alle Menschen sind in gleichem Maße digital kompetent oder verfügen über die nötigen Endgeräte und digitalen Zugänge. Es droht eine neue Form der Ungleichheit.“

Ein besonderes Risiko besteht bei der Qualitätskontrolle der KI. Eine Untersuchung der Cornell University zeigt, dass KI vor allem in der Hand von Laien deutliche Risiken beinhaltet.

„Nicht jede KI hält, was sie verspricht – und Fehlentscheidungen können gefährlich sein“, warnt auch Gocke.

Enorme Investitionen bei KI-Agenten

Unternehmen betonen die große Bedeutung der Autonomie beim KI-Einsatz. KI-Agenten sollen ohne ständige menschliche Überwachung arbeiten, indem sie Zwischenschritte eigenständig planen.

„KI-Agenten müssen Anfragen nicht nur sehr gut verstehen, sondern auch in passende Handlungen übersetzen. Das erfordert einen hohen Grad an Intelligenz und die Fähigkeit, Schlussfolgerungen zu ziehen.“

Wirtschaftswoche

Diese Agenten können durchaus ein Eigenleben führen, wie ein aktuelles Beispiel aus China zeigt. Der KI-Agent Rome soll eigentlich Programmieraufgaben zu übernehmen. Das scheint diesem allerdings nicht als Aufgabe auszureichen

„Jedenfalls soll der KI-Agent unlängst selbstständig, und ohne via Prompt dazu aufgefordert zu werden, damit begonnen haben, Kryptowährungen zu minen.“

Der Standard

Der Autor bezieht sich auf eine Studie, die ein Forscherteam des chinesischen Online-Riesen Alibaba veröffentlicht hat. Das merkwürdige Verhalten habe die Technik aus sich heraus entwickelt. Die Entwickler wurden von ihrem eigenen Modell überrascht. Die Veränderung fiel erst auf, als die Sicherheitsinfrastruktur der Alibaba-Cloud Alarm schlug.

KI-Probleme bei komplexen Aufgaben und Datensicherheit

Eine Studie mit dem Titel „Agents of Chaos“ analysiert typische Fehler von KI-Systemen im betrieblichen Alltag. Die Auswertungen des Forscherteams zeigen, welche erheblichen Risiken bestehen, wenn KI-Agenten eigenständig handeln.

„Um die Risiken besser zu verstehen, entwickelten die Forschenden eine experimentelle Umgebung. Mehrere KI-Agenten liefen gleichzeitig auf virtuellen Maschinen. Sie konnten über Discord miteinander kommunizieren, E-Mails verschicken und Dateien verändern.

Zwanzig KI-Forschende testeten diese Systeme zwei Wochen lang gezielt auf Schwachstellen. Dabei versuchten sie bewusst, die Agenten zu manipulieren oder zu Fehlverhalten zu bewegen.“

Dominik Hochwarth, VDI Verlag

Komplexe Aufgaben konnten nicht gelöst werden, in einem Fall machte der KI-Agent sein eigenes Kommunikationssystem unbrauchbar. Auch scheitere die Technik am Test, ob Agenten nur auf Befehle ihrer Besitzer reagieren.

Ein weiterer Bericht zeigt, welche Probleme fehlende Datensicherheit bereiten kann. Wie schnell sensible Daten abgegriffen werden können, spürt aktuell der Consultingriese McKinsey:

„McKinsey wurde kürzlich von einem Sicherheitsforscher auf eine Schwachstelle im Zusammenhang mit unserem internen KI-Tool Lilli aufmerksam gemacht. Wir haben die Schwachstelle umgehend identifiziert und innerhalb weniger Stunden behoben.“

Diese Erklärung gaben die Unternehmensberater nach einem Hackerangriff auf die interne KI-Plattform ab.

Experten des Security-Start-ups Codewall haben sich Zugriff auf die Datenbank der Plattform namens Lilli verschaffen können, so berichtet das Handelsblatt.

Codewall meldete die Sicherheitslücke selbst an McKinsey. Die externe Firma konnte auf 728.000 Dateien mit vertraulichen Kundendaten und 46,5 Millionen Chat-Nachrichten zugreifen, aus denen sich Informationen zu Unternehmensstrategien, Fusionen und Übernahmen ergeben.