A OpenAI anunciou este mês um novo recurso para o ChatGPT, que permite ao popular chatbot executar ações em nome do utilizador. Isso faz parte de um esforço de toda a indústria para mudar a forma como as pessoas realizam tarefas na Internet: as gigantes da tecnologia esperam que, em vez de alternar entre aplicações e pesquisar manualmente na web, os utilizadores possam um dia contar com agentes para fazer tudo isso.

O novo modo de agente do ChatGPT, que começa a ser implementado imediatamente, é mais um sinal de que as gigantes da tecnologia estão a apostar em assistentes digitais que demonstram capacidades significativamente avançadas. Isso também intensifica a corrida entre a OpenAI e o Google, que persegue ambições semelhantes com o seu assistente Gemini.

A OpenAI diz que o novo modo agente do ChatGPT “pensa” e “age” usando o seu próprio computador virtual, permitindo-lhe lidar com solicitações complexas orientadas para a ação. Por exemplo, os utilizadores poderão emitir comandos como “olha para a minha agenda e dá-me informação sobre as próximas reuniões que eu vou ter com clientes, com base nas notícias recentes” ou “planifica e compra ingredientes para fazer um pequeno-almoço japonês para quatro pessoas”, disse a empresa em uma publicação no blogue.

Numa demonstração em vídeo, os funcionários da OpenAI escreveram um prompt longo e detalhado pedindo ao agente para ajudar o utilizador a preparar-se para um casamento. Ele incluía um conjunto de instruções específicas, como “encontrar uma roupa que combine com o dress code”, acrescentando que deveria propor cinco opções, juntamente com hotéis que pudessem acomodar alguns dias extras em torno do evento.

O novo recurso está disponível para quem assina um plano Pro, Plus ou Team. Baseia-se e combina recursos das ferramentas ChatGPT Operator e Deep Research que a OpenAI já oferece; o Operator navega na web, enquanto o Deep Research analisa recursos online para fazer coisas como compilar relatórios.

A atualização é mais um passo nos esforços da OpenAI para transformar o ChatGPT num assistente universal mais abrangente. Ao mesmo tempo, a indústria de IA em geral está também a debater-se com a forma de lidar com importantes deficiências e preocupações de privacidade em torno da tecnologia. Os modelos de IA ainda são propensos a alucinações e preconceitos e podem agir de formas imprevisíveis, como demonstrou o chatbot Grok da xAI, quando divulgou conteúdo antissemita depois de ter sido solicitado a fazê-lo.

Numa publicação no blogue, a OpenAI reconheceu que a nova funcionalidade do ChatGPT apresenta novos riscos. A empresa afirmou que limitou os dados aos quais o modelo tem acesso e que certas tarefas, como enviar um e-mail, exigem a supervisão do utilizador. O modelo também foi treinado para recusar “tarefas de alto risco”, como transferências bancárias, afirma a empresa.

“Eu explicaria isso à minha própria família como algo inovador e experimental. Uma oportunidade de experimentar o futuro, mas não algo que eu ainda usaria para fins de alto risco ou com muitas informações pessoais até que tenhamos a oportunidade de o estudar e melhorar na prática”, escreveu o CEO da OpenAI, Sam Altman, numa publicação no X, em que anunciou o agente.

Sam Altman aconselhou os utilizadores a serem cautelosos ao dar acesso ao ChatGPT a informações pessoais. Por exemplo, conceder acesso a um calendário para coordenar um jantar em grupo pode fazer sentido, mas o agente não precisaria de acesso ao calendário para comprar roupas em nome do utilizador.

O anúncio surge num momento em que as gigantes tecnológicas estão cada vez mais empenhadas em desenvolver agentes de IA, na tentativa de ganhar a corrida pela liderança da IA. A Google fez uma série de anúncios relacionados com a IA durante a conferência de programadores em maio, incluindo um agente que pode fazer reservas em restaurantes e comprar bilhetes para eventos, entre outras tarefas. A Apple está a trabalhar numa versão mais avançada da Siri que pode utilizar aplicações em nome do utilizador, embora essa atualização esteja atrasada indefinidamente.