Il gigante tech afferma di essere riuscito a bloccare la vulnerabilità. Ma avverte che il caso è la riprova di come l’AI sia già diventata uno strumento importante per i cybercriminali, che stanno utilizzando la tecnologia per identificare e sfruttare le falle di sicurezza in modi sempre più sofisticati.

“I criminali informatici stanno utilizzando l’AI per ottimizzare varie fasi del ciclo di vita di un attacco. Ciò include lo sviluppo di exploit e malware, l’esecuzione autonoma di comandi, l’esecuzione di ricognizioni più mirate e complete e il miglioramento dell’efficacia delle operazioni informatiche e di ingegneria sociale”, afferma il Gtig nel suo rapporto.

L’unità della società sottolinea che oggi gli aggressori ricorrono, per esempio, al “jailbreak basato sul phishing” per far sì che l’intelligenza artificiale trovi le vulnerabilità, alimentano i modelli con archivi di dati relativi alle falle di sicurezza e utilizzano strumenti come OpenClaw in modi che suggeriscono “l’interesse a perfezionare i payload generati dall’AI in ambienti controllati per aumentare l’affidabilità degli exploit prima della distribuzione“.

Quando l’AI è un’arma ma anche un obiettivo

Il Gtig segnala inoltre che per i criminali informatici l’intelligenza artificiale non è solo una risorsa preziosa ma anche un obiettivo, dal momento che un numero sempre maggiore di aziende e organizzazioni integra sistemi di AI nelle operazioni critiche.

“Il potenziale dell’AI è immenso. Con l’avanzare dell’innovazione, il settore ha bisogno di standard di sicurezza per sviluppare e distribuire l’AI in modo responsabile“, conclude il team.

Il monito di Google si aggiunge agli appelli di diversi sviluppatori di AI, che hanno messo in guardia sulla capacità della tecnologia di pianificare, eseguire e perfezionare attacchi informatici complessi.

Alla fine dello scorso anno, Anthropic ha documentato il primo caso di cyberattacco su larga scala eseguito da un sistema di intelligenza artificiale “senza un intervento umano significativo”. L’azienda statunitense ha rilevato che Claude Code era stato manipolato da un gruppo di attori presumibilmente legati alla Cina per portare a termine una campagna di spionaggio globale.

“Un numero sempre maggiore di aggressori utilizzerà senza dubbio le tecniche descritte sopra, il che rende ancora più cruciale condividere le informazioni sulle minacce, migliorare i metodi di rilevamento e rafforzare i controlli di sicurezza”, aveva affermato Anthropic all’epoca.

Questo articolo è apparso originariamente su Wired en español.