As violações de políticas de dados associadas ao uso de ferramentas de inteligência artificial generativa (GenAI) dobraram em 2025, mesmo com a maior adoção de versões corporativas dessas aplicações, segundo dados do Cloud and Threat Report: 2026 da Netskope.
De acordo com o estudo, as empresas analisadas enfrentaram em média 223 incidentes mensais de GenAI envolvendo violações de políticas de dados, mais do que o dobro registrado no ano anterior. O aumento no uso de GenAI vem acompanhado de crescimento expressivo no número de usuários e no volume de prompts: 200% e 500%, respectivamente, no último ano.
Esse crescimento ocorre em um ritmo inferior à expansão do uso da tecnologia nas empresas. Enquanto as violações de políticas de dados associadas à GenAI dobraram em um ano, o número de usuários dessas ferramentas cresceu três vezes e o volume de prompts aumentou seis vezes no mesmo período. Segundo o estudo, essa diferença indica uma lacuna na maturidade da governança, já que cerca de 50% das empresas ainda não possuem políticas efetivas de proteção de dados para aplicações de GenAI. Nesses ambientes, dados sensíveis podem estar sendo enviados para ferramentas de IA sem detecção, o que indica que a real dimensão da exposição de dados pode ser ainda mais significativa.
Embora as empresas tenham ampliado o acesso a versões corporativas de GenAI – com a proporção de usuários que utilizam apenas contas pessoais caindo de 78% para 47% – relatório mostra que 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.
Aplicações pessoais de nuvem continuam sendo uma fonte significativa de vazamento de dados, respondendo por 60% dos incidentes de ameaça interna, com exposição de dados regulados, propriedade intelectual, código-fonte e credenciais. O phishing também manteve sua presença como vetor de ataque, com 87 a cada 10 mil usuários ainda clicando em links suspeitos mensalmente, apesar de uma redução modesta ano a ano.
De acordo com Ray Canzanese, diretor do Netskope Threat Labs, a adoção de inteligência artificial generativa mudou as regras do jogo e criou um perfil de risco que surpreendeu muitas equipes pela sua abrangência e complexidade. Segundo ele, esse cenário tem dificultado acompanhar as novas ameaças e feito com que princípios básicos de segurança fiquem em segundo plano. Para lidar com isso, as equipes precisam adotar uma postura consciente do uso de IA, evoluir políticas e ampliar o uso de ferramentas já existentes, como DLP, para equilibrar inovação e segurança.