A Microsoft está a implementar uma funcionalidade experimental de Inteligência Artificial (IA) com agência na mais recente versão de pré-visualização para programadores do Windows 11, com o objetivo de permitir aos utilizadores automatizar tarefas quotidianas. No entanto, a empresa alerta que controlos de segurança inadequados podem criar riscos superiores aos benefícios.

A funcionalidade experimental, denominada “espaço de trabalho do agente”, cria um ambiente separado no Windows, onde os agentes de IA podem aceder às aplicações e aos dados do utilizador para executar tarefas em segundo plano.

Os agentes operam através das suas próprias contas, separadas da conta do utilizador, para autorização com âmbito definido e isolamento em tempo de execução. Têm acesso restrito a pastas, a menos que o utilizador conceda permissões adicionais a cada um dos agentes.

O espaço de trabalho do agente, segundo a Microsoft, é executado numa sessão separada do Windows, em paralelo com a sessão do utilizador, para garantir o isolamento de segurança e o controlo do utilizador. Só é ativado quando o utilizador ativa a configuração de recurso experimental de agentes.

A funcionalidade está desativada por defeito e a Microsoft alerta que a sua ativação cria riscos. A empresa aconselha que apenas os utilizadores que compreendam as implicações de segurança devem ativá-lo, uma vez que a configuração só pode ser ativada por um administrador do dispositivo. Uma vez ativada, a funcionalidade fica disponível para todos os utilizadores, incluindo outros administradores e utilizadores padrão.

A ativação da IA com agentes, embora possa transformar o sistema operativo num assistente pessoal, expõe o sistema a riscos como alucinações e ações maliciosas desencadeadas por prompts manipulados, alerta a Microsoft.

“As aplicações com IA com agência introduzem novos riscos de segurança, como a injeção entre prompts, em que o conteúdo malicioso incorporado em elementos da interface do utilizador ou de um documento pode substituir as instruções do agente, levando a ações indesejadas como a exfiltração de dados ou a instalação de malware”, observa a empresa.

A Microsoft afirma ter implementado medidas de segurança, mas sublinha a importância de um conjunto robusto de princípios para garantir que os agentes atuam de acordo com a intenção do utilizador e protegem as informações confidenciais.

Os princípios de segurança que a empresa está a estabelecer incluem o princípio do menor privilégio – ou seja, os agentes não podem ter permissões superiores às do utilizador que os iniciou –, controlo e monitorização, e acesso restrito.

A Microsoft planeia implementar gradualmente as funcionalidades no Windows 11, incluindo o Ask Copilot na barra de tarefas, o Copilot no Explorador de Ficheiros e resumos gerados por IA no Outlook.