Ein unbekanntes Virus aus Asien verbreitet sich rasend schnell im Dezember 2025. Es mutiert in einem völlig unerwarteten Muster, löst schwere Gehirnentzündungen aus und tötet jeden fünften Infizierten. Binnen weniger Wochen erreichen die Fälle Europa und Afrika, überfordern die Krankenhäuser und führen zu dramatischen Engpässen bei Schutzmasken und medizinischem Material.
Was nach dem Drehbuch für einen Katastrophenfilm klingt, war im Februar 2024 die fiktive Realität in einer Simulation. Ein US-Thinktank und eine internationale Impfstoff-Allianz hatten dazu 24 hochrangige Führungskräfte aus Sicherheit, Gesundheit und Technik im Rahmen der Münchner Sicherheitskonferenz eingeladen. Ihr Auftrag: Eine fiktive Weltkrise zu lösen, die Experten heute schon als reale Bedrohung einstufen.
Die dunkle Seite der digitalen Biologie
Das Erschreckende an diesem Planspiel war nicht nur das Virus selbst, sondern sein Ursprung: Hinter dem fiktiven Ausbruch steckte eine anarchistische Terrorgruppe. Die hatte gezielt unzufriedene Wissenschaftler angeworben und Ausrüstung aus Hochsicherheitslaboren gestohlen. Den entscheidenden Bauplan für den tödlichen Erreger erstellten sie jedoch nicht durch jahrelange Forschung, sondern mithilfe von künstlicher Intelligenz.
Hinter der Analyse stehen „FP Analytics“, die Forschungseinheit des US-Magazins „Foreign Policy“, und die Impfstoff-Allianz CEPI. Letztere ist eine weltweite Organisation, die die Entwicklung von Impfstoffen gegen künftige Epidemien beschleunigt.
Wie groß ist die Gefahr?
Der Bericht warnt davor, dass die Verteidigung gegen biologische Angriffe in den Sicherheitsbudgets der Staaten jahrelang vernachlässigt wurde. Andrew Hebbeler, Biosecurity-Director der Allianz CEPI, betont gegenüber dem Tagesspiegel, dass die Welt zwar schneller auf Ausbrüche reagieren kann als vor Corona, dass aber gefährliche Lücken bleiben.
Auch die EU-Kommission äußert sich besorgt. Ihre Krisenbehörde HERA (zuständig für gesundheitliche Notlagen) erklärt auf Anfrage: „Obwohl die unmittelbare Entwicklung künstlicher Krankheitserreger aufgrund des erheblichen Ressourcenbedarfs unwahrscheinlich erscheint, könnte dieses Szenario aufgrund der rasanten Fortschritte in der KI-Technologie plausibler werden.“ Forschenden sei es im vergangenen Jahr gelungen, mithilfe von KI neuartige Viren zu entwickeln, was darauf hindeute, dass ähnliche Ansätze in Zukunft auch auf Viren anwendbar sein könnten, die auf den Menschen abzielen.
Ein Virus für 100.000 Dollar
Wie einfach der Missbrauch sein kann, zeigte ein Team der University of Alberta bereits 2016. Mithilfe von DNA-Fragmenten, die sie einfach per Post bestellten, gelang es ihnen innerhalb von sechs Monaten und mit einem Budget von nur 100.000 Dollar, Pferdepocken im Labor künstlich herzustellen. Laut der Weltgesundheitsorganisation (WHO) waren dafür keine außergewöhnlichen Kenntnisse erforderlich. Es stehe außer Frage, dass dieselben Techniken auch für die seit 1980 ausgerotteten, tödlichen Pocken funktionieren könnten.
Dass die Szenarien keine Science-Fiction sind, unterstreicht auch eine Studie der Stanford University aus dem September 2025. Den Forschenden gelang es erstmals, mithilfe von spezialisierten KI-Modellen vollständige, funktionsfähige Genome von Bakteriophagen – Viren, die Bakterien infizieren – am Computer zu entwerfen. Während die herkömmliche synthetische Biologie oft auf der mühsamen Modifikation bestehender Organismen beruht, generierte die KI hier völlig neue Gencodes, die in der Natur so nicht vorkommen.
Sprachmodelle des Lebens
Das Ergebnis ist noch nicht von einem Fachjournal begutachtet worden, ist aber dennoch beunruhigend: Von den am Rechner entworfenen Bauplänen erwiesen sich 16 Phagen im Labor als lebensfähig und hochgradig effizient. Einige dieser künstlichen Viren übertrafen in ihrer Vermehrungsrate sogar den natürlichen Wildtyp und konnten bakterielle Abwehrmechanismen spielend überwinden.
Um das Risiko eines Missbrauchs zu minimieren, trafen die Wissenschaftler zwar bewusste Sicherheitsentscheidungen – so wurden die Modelle nicht mit Daten von Viren trainiert, die Menschen befallen. Dennoch demonstriert die Studie, dass die Schwelle für das Design komplexer biologischer Systeme drastisch gesunken ist: Was früher Jahrzehnte der Evolution oder spezialisierte Experten erforderte, kann heute durch die „Sprachmodelle des Lebens“ in kürzester Zeit berechnet werden.
Frühwarnsystem für gefährliche Gensequenzen
Wie kann man dieser Gefahr begegnen? Als wichtige Maßnahme nennt HERA das Screening der Nukleinsäuresynthese – die Überprüfung von Aufträgen an DNA-Syntheseunternehmen. Denn um künstliche Erreger im Reagenzglas herzustellen, braucht man vorgefertigte DNA-Fragmente, die dann zusammengesetzt werden. Kommerziellen DNA-Synthese-Unternehmen sind daher eine wichtige Kontrollinstanz, um potenziell gefährliche genetische Sequenzen frühzeitig zu identifizieren.
HERA und CEPI sind sich einig, dass ein breites Risikomanagement notwendig ist, und nicht pauschale Beschränkungen, die Innovationen bei Impfstoffen, Therapeutika und Diagnostika behindern könnten.
Gefährlicher als die Natur?
Es brauche Systeme, die auf alle entdeckten Ausbrüche reagieren könnten, unabhängig davon, ob diese von natürlichen Pandemien oder potenziellem Missbrauch neuer Technologien ausgehen, sagt der Biosecurity-Director von CEPI. „Derzeit ist unklar, ob durch KI entwickelte Krankheitserreger gefährlicher wären als solche, die in der Natur entstehen.“
CEPI drängt auf eine deutlich stärkere Pandemievorsorge – allen voran durch die von der Organisation angeführte und international unterstützte „100‑Tage‑Mission“, welche sichere und wirksame Impfstoffe durch beschleunigte Schritte entlang der gesamten Entwicklung ermöglichen soll. Das Kernstück ist ein agentenbasiertes KI‑System, das große Datenmengen auswertet.
Mehr über KI in der Biologie:Zündet eine KI „die nächste Stufe der Evolution“? Computer können jetzt Gene und Genome kreieren Sie beschleunigt sich selbst Wie künstliche Intelligenz unsere Welt verändert – lange bevor wir es merken Geheimdienstbericht zum Ursprung von Corona Wie glaubwürdig sind die Informationen?
Auch bei der NATO ist das Thema angekommen. Das Verteidigungsbündnis hat im Februar 2024 erstmals eine Strategie verabschiedet, die den verantwortungsvollen Umgang mit Biotechnologie regelt. Ziel ist es, den Fortschritt auch für die Sicherheit zu nutzen. Ein NATO-Vertreter bestätigt, dass diese Pläne bereits aktiv umgesetzt werden.
Im Zentrum steht dabei der Innovationsbeschleuniger DIANA. Diese Organisation sucht gezielt nach Technologien, die sowohl im zivilen Alltag als auch zur Verteidigung dienen können – sogenannte „Dual-Use“-Technologien. Drei Beispiele zeigen, wie KI und Biologie dabei Hand in Hand gehen:
Das US-Unternehmen Realnose.ai nutzt KI, um Gerüche zu analysieren. Ursprünglich für die medizinische Diagnose entwickelt, können diese Sensoren heute gefährliche chemische oder biologische Stoffe in der Luft „erschnüffeln“, noch bevor Menschen sie bemerken.Die französische Firma Biocellis arbeitet an einem tragbaren Lesegerät, das biologisches Licht (Biolumineszenz) nutzt. Damit lassen sich giftige Substanzen oder biologische Kampfstoffe direkt vor Ort in Sekundenschnelle nachweisen – hochempfindlich und ohne Zeitverlust durch Labortransporte.Aboa Space Research Oy aus Finnland kombiniert ein handliches Mikroskop mit künstlicher Intelligenz. Das Gerät liefert hochpräzise Bilder in Laborqualität, die von der KI sofort ausgewertet werden. So können Soldaten oder Ersthelfer ohne Spezialausbildung in Echtzeit erkennen, ob sie es mit antibiotikaresistenten Keimen, Umweltgiften oder verstrahlten Zellen zu tun haben.
Solche technologischen Schutzschilde standen auch im Fokus der ersten NATO-Biotech-Konferenz Ende Oktober 2025 in Brüssel. Sie verdeutlichte: Im Wettlauf gegen die Risiken der digitalen Biologie können KI-gestützte Sensoren eine Verteidigungslinie sein.