Com o crescimento da IA e a sua nova importância, é essencial que a segurança dos utilizadores e dos seus dados seja garantida. Assim, e neste contexto, a Google quer garantir que a Gemini está protegida e sem falhas e por isso, vai oferecer uma fortuna a quem achar falhas na sua IA.

Google IA segurança Inteligência Artificial

Google quer segurança na IA

A Google anunciou o lançamento de um novo programa de recompensas por vulnerabilidades focado em Inteligência Artificial, oferecendo pagamentos que podem chegar aos 30.000 dólares. A iniciativa, divulgada no blog de segurança da empresa, visa incentivar a comunidade de investigadores a identificar e reportar falhas nos seus modelos de IA, como o Gemini.

O programa, denominado “AI Red Team”, pretende colmatar as falhas de segurança de forma proativa, antes que sejam exploradas maliciosamente. De acordo com o anúncio oficial, a Google procura vulnerabilidades em diversas áreas, incluindo a capacidade de “geração de conteúdo perigoso ou enganoso”, como desinformação, discursos de ódio ou instruções de auto-mutilação.

A empresa sublinha a necessidade de uma abordagem colaborativa para garantir a segurança dos seus sistemas de IA. “O que pode parecer um erro inofensivo no momento pode levar a uma falha de segurança perigosa no futuro”, explicou a Google. A iniciativa abrange também a identificação de vulnerabilidades que permitam aos modelos ignorar filtros de segurança, aceder a dados privados de utilizadores, ou comprometer a segurança da API e do código de infraestrutura.

Google IA segurança Inteligência Artificial

Oferece fortuna a quem achar falhas

Os valores das recompensas variam consoante a gravidade da vulnerabilidade, com a Google a classificar as falhas por categorias como “alto impacto”, que podem valer até 30.000 dólares, e “impacto moderado”, que podem render até 1.000 dólares. A empresa clarificou ainda que os investigadores devem fornecer um “relatório detalhado” da vulnerabilidade encontrada para serem elegíveis para o prémio.

Este novo programa insere-se na estratégia mais ampla da Google para reforçar a segurança dos seus produtos, à medida que a Inteligência Artificial se torna uma parte central da sua oferta tecnológica. A iniciativa não só demonstra o compromisso da empresa com a segurança, como também reconhece a importância da comunidade externa na identificação de falhas que, de outra forma, poderiam passar despercebidas.

A Google já mantém um programa de recompensas por vulnerabilidades em larga escala para os seus produtos web e Android, e esta nova aposta no campo da IA reflete a crescente importância deste setor no cenário tecnológico global. Com a ameaça de ataques cibernéticos a evoluir, programas como o “AI Red Team” da Google desempenham um papel crucial na proteção de utilizadores e na manutenção da integridade dos sistemas de IA.