A IA deixou de ser uma distração e passou a ser uma verdadeira ferramenta de ataque para hackers experientes. Prova disso é a Google confirmar ter intercetado a primeira vulnerabilidade zero-day criada com IA já registada. O objetivo dos atacantes era comprometer a autenticação de dois fatores de uma ferramenta amplamente utilizada.
Descoberto o primeiro ataque criado com IA
De acordo com o blog de segurança da Google Cloud , os investigadores do Google Threat Intelligence Group (GTIG) descobriram a primeira vulnerabilidade zero-day desenvolvida com recurso a modelos de linguagem. Segundo o relatório, os investigadores perceberam que se tratava de IA depois de descobrirem alucinações e outras características típicas de um modelo de aprendizagem de linguagem (LLM).
Entre elas, uma pontuação de risco CVSS falsificada e uma estrutura demasiado académica que levantou suspeitas. O formato era demasiado organizado , com docstrings educacionais, menus de ajuda detalhados e uma estrutura típica de materiais de formação utilizados para alimentar modelos de IA. Estas características não são normalmente encontradas em códigos escritos por humanos para fins maliciosos.
A Google afirma que, embora o código pareça ter sido gerado por IA, não há evidências de que o Gemini tenha sido utilizado para esta tarefa . A gigante tecnológica trabalhou com o fornecedor afetado para interromper a campanha antes que um ataque em massa planeado pudesse ocorrer. Outro detalhe revelado no relatório é a falha que a IA ajudou a identificar.
Google detetou e mitigou esta situação
O programador criou uma suposição de confiança diretamente na lógica do sistema de autenticação de dois fatores (2FA), o que passou despercebido às ferramentas tradicionais. O relatório da GTIG refere que os atacantes utilizam modelos de linguagem há meses para tarefas que antes exigiam um tempo humano considerável. Além de gerar exploits, a IA está a facilitar o reconhecimento extremamente detalhado das empresas para criar ataques mais convincentes.
A Google afirma que grupos de hackers ligados à China e à Coreia do Norte estão a implementar estruturas de agentes como o Hexstrike e o Strix. Estas estruturas utilizam ferramentas de reconhecimento e sistemas multiagentes para automatizar fases inteiras de um ataque com supervisão humana mínima. Para atingir o seu objetivo, os atacantes recorrem ao jailbreak utilizando identidades falsas.
Os hackers contornam as barreiras de segurança instruindo a IA para assumir o papel de especialista em segurança. Alguns alimentam os modelos com repositórios inteiros de dados de vulnerabilidades para refinar a fiabilidade dos payloads antes de os lançar contra alvos reais. O relatório conclui que a utilização de IA em operações ofensivas está a passar de experimental a sistemática.


