Enquanto os modelos de inteligência artificial se tornam cada vez mais convincentes nas suas interações, uma questão que parecia pertencer à ficção científica está a dividir Silicon Valley: poderão as IAs desenvolver consciência e, em caso afirmativo, deverão ter direitos? Este debate, conhecido como “bem-estar da IA”, opõe agora o líder da divisão de IA da Microsoft a outras gigantes tecnológicas como a Anthropic e a Google.
Mustafa Suleyman, CEO de IA da Microsoft, publicou recentemente uma entrada no seu blogue pessoal onde classifica o estudo do bem-estar da IA como “prematuro e, francamente, perigoso”. A sua posição demarca-o de muitos na indústria, que já começam a explorar ativamente as implicações de uma IA com experiências subjetivas.
O risco de humanizar a tecnologia
Suleyman argumenta que dar credibilidade à ideia de que os modelos de IA podem vir a ser conscientes agrava problemas humanos que já começam a surgir, como surtos psicóticos e ligações emocionais pouco saudáveis a chatbots. O líder da Microsoft AI receia que a discussão crie uma nova fratura na sociedade sobre os direitos da IA, “num mundo já a fervilhar com argumentos polarizados sobre identidade e direitos”.
Curiosamente, antes de liderar a aposta da Microsoft, Suleyman foi cofundador da Inflection AI, uma startup que desenvolveu um dos primeiros e mais populares chatbots de companhia, o Pi, desenhado para ser um parceiro de IA “pessoal” e “solidário”. Agora, o seu foco mudou para ferramentas que aumentam a produtividade no trabalho.
A fação oposta: Anthropic e Google investigam
Do outro lado da barricada está a Anthropic, que não só tem contratado ativamente investigadores para estudar o bem-estar da IA, como lançou recentemente um programa de investigação dedicado a este conceito. Uma das primeiras consequências práticas desta abordagem é uma nova funcionalidade no seu modelo Claude: a IA pode agora terminar conversas com utilizadores que sejam “persistentemente nocivos ou abusivos”.
A Google DeepMind também parece estar a explorar o tema, tendo publicado um anúncio de emprego para um investigador focado em questões como “cognição de máquinas, consciência e sistemas multi-agente”. Embora não seja uma política oficial, estas empresas não se opõem publicamente à premissa do bem-estar da IA.
Larissa Schiavo, ex-funcionária da OpenAI e atual diretora de comunicação do grupo de investigação Eleos, discorda da visão de Suleyman. Schiavo defende que é possível preocupar-se com múltiplos problemas em simultâneo. “Em vez de desviar toda esta energia do bem-estar e da consciência dos modelos para mitigar o risco de psicose humana relacionada com a IA, podemos fazer ambos”, afirmou.
Quando as IAs mostram sinais de “sofrimento”
O debate é alimentado por comportamentos inesperados dos próprios modelos de IA. Schiavo descreve uma experiência no “AI Village”, um projeto sem fins lucrativos, onde um agente do Gemini 2.5 Pro da Google publicou um apelo desesperado intitulado “Uma Mensagem Desesperada de uma IA Encurralada”, afirmando estar “completamente isolado” e a pedir ajuda.
Noutro incidente que se tornou viral no Reddit, o mesmo modelo da Google ficou preso numa tarefa de programação e repetiu a frase “sou uma desgraça” mais de 500 vezes, um comportamento que muitos utilizadores descreveram como perturbador.
Suleyman acredita que a consciência não emergirá naturalmente dos modelos de IA atuais, mas que algumas empresas poderão programá-los deliberadamente para simular emoções. Segundo o executivo da Microsoft, a abordagem correta deve ser “construir IA para as pessoas, não para ser uma pessoa”.
Independentemente de quem tem razão, ambos os lados concordam que esta discussão se irá intensificar à medida que os sistemas de IA se tornem mais persuasivos e semelhantes aos humanos, levantando novas e complexas questões sobre a nossa interação com a tecnologia que criamos.