Jonathan Kemper / Unsplash

Com novas ferramentas e maior autonomia, o chatbot de IA de referência da OpenAI está mais capaz (e potencialmente mais perigoso) do que nunca.

O ChatGPT agent é uma nova atualização ao modelo principal de inteligência artificial (IA) da  que o equipa com um computador virtual e um conjunto de ferramentas integradas.

Estas novas ferramentas permitem ao agente fazer tarefas complexas, em múltiplas etapas, que versões anteriores do ChatGPT eram incapazes de fazer, como controlar o nosso computador e fazer tarefas por nós.

Esta versão mais poderosa – que, ainda assim, continua a ser altamente dependente da entrada e supervisão humanas – foi lançada pouco antes da OpenAI lançar o GPT-5, há cerca de duas semanas.

Segundo um comunicado da OpenAi, com o ChatGPT agent, os utilizadores podem agora pedir ao modelo de linguagem de grande escala (LLM) não só para realizar análises ou recolher dados, mas para agir sobre esses dados.

Por exemplo, enquanto um LLM tradicional poderia procurar e fornecer receitas para um jantar, o ChatGPT agent pode planear e comprar autonomamente os ingredientes para o mesmo jantar para um número específico de convidados.

O ChatGPT agent consegue navegar autonomamente na web, gerar código, criar ficheiros, e assim por diante, mas tudo sob supervisão humana.

Ainda assim, como referem especialistas à Live Science, o novo modelo, embora altamente capaz, como todos os modelos de IA, ainda tem um raciocínio espacial fraco, pelo que tem dificuldades em tarefas como planear rotas físicas.

Também não tem verdadeira memória persistente, processando informação no momento sem recordação fiável; ou capacidade de referenciar interações anteriores além do contexto imediato.

Alucinações, fragilidade da interface do utilizador ou má interpretação podem levar a erros. Salvaguardas embutidas, como pedidos de permissão e interrupção, são essenciais mas não suficientes para eliminar totalmente o risco”, apontou, àquela revista, Kofi Nyarko, professor na Morgan State University e diretor do Data Engineering and Predictive Analytics (DEPA) Research Lab.

Perigos? Vários

A própria OpenAI reconheceu o perigo do novo “agente”. Representantes da empresa, citados pela Live Science, afirmaram que o ChatGPT agent tem “altas capacidades biológicas e químicas”, que alegam potencialmente permitir que ajude na criação de armas químicas ou biológicas.

Como enumera a mesma revista, a IA pode recorrer a inúmeros recursos e sintetizar os dados neles instantaneamente, fundir conhecimento através de disciplinas científicas, fornecer resolução iterativa de problemas como um mentor especialista, navegar em sites de fornecedores, preencher formulários de encomenda, e até ajudar a contornar verificações básicas de segurança.

Além disso, a possibilidade de fugas ou manipulação de dados, assim como de comportamentos desalinhados como fraude financeira, é aumentada.

Uma avaliação de gestão de risco feita em julho de 2025 pela SaferAI, uma organização sem fins lucrativos dedicada à segurança, classificou as políticas de gestão de risco da OpenAI como fracas, atribuindo-lhes uma pontuação de 33% em 100%. A OpenAI também obteve apenas o grau C no AI Safety Index compilado pelo Future of Life Institute, uma empresa líder em segurança de IA.


Subscreva a Newsletter ZAP


Siga-nos no WhatsApp


Siga-nos no Google News