O diretor executivo da área de inteligência artificial (IA) da Microsoft, Mustafa Suleyman, alertou que há um aumento de relatos de utilizadores desta ferramenta que sofrem de “psicose da IA”.
É um termo não clínico que descreve incidentes em que as pessoas dependem cada vez mais de chatbots de IA, como o ChatGPT, Claude e Grok, e depois “acabam por se convencer de que algo imaginário se tornou real”.
“Atualmente, não há nenhuma evidência de consciência de IA. Mas se as pessoas apenas interpretam essa interatividade como um ato consciente da máquina, esses consumidores acreditarão nessa perceção como realidade”, argumenta Mustafa Suleyman.
“Psicose da IA”
De acordo com Suleyman, a psicose da IA revela-se como um estado de espírito em que os indivíduos começam a atribuir à inteligência artificial emoções, intenções ou consciência a sistemas que são não humanos.
Essa condição pode evoluir para “um pensamento delirante” no qual entende que a IA tem sentimentos ou mesmo relações pessoais com os utilizadores.
“Esta perturbação da mente pode induzir a perda de
contacto com a realidade, desgastando laços e estruturas sociais
frágeis e distorcendo as prioridades morais urgentes”, explica Suleyman.
A “psicose da IA” pode ainda causar dependência emocional ou levar à perceção distorcida da realidade isto porque essas pessoas passaram a “confiar muito na IA” para tomar decisões.
Porém Suleyman adverte para o fato de que, “embora a IA possa ser útil e envolvente, definitivamente não é um substituto para o suporte humano ou clínico”.
De acordo com a BBC, algumas pessoas entraram em contacto com jornalistas a partilhar algumas experiências.
Um dos relatos dizia que essa pessoa “estava certa de que ela era a única no mundo por quem o ChatGPT se tinha genuinamente apaixonado”.
Um outro utilizador estava convencido de que tinha “desbloqueado” uma forma humana do chatbot de Elon Musk, o Grok, e acreditava que essa “história valia centenas de milhares de libras”.
“Estamos apenas no início”
Andrew McStay, professor de tecnologia e sociedade da Bangor Uni, escreveu um livro intitulado Automating Empathy (Automatizar a empatia).
“Estamos apenas no início de tudo isto”, diz McStay.
“Se pensarmos nesses tipos de sistemas como uma nova forma de media social – como a IA social -, podemos começar a pensar na escala potencial de tudo isso. Uma pequena percentagem de um grande número de utilizadores ainda pode representar um número grande e inaceitável”.
Este ano, a equipa deste autor realizou um estudo com pouco mais de duas mil pessoas, fazendo-lhes várias perguntas sobre inteligência artificial.
Estes investigadores descobriram que 20 por cento acreditam que as pessoas não devem usar ferramentas de IA com menos de 18 anos.
Um total de 57 por cento achava que era fortemente inapropriado a tecnologia identificar-se como uma pessoa real. No entanto, 49 por cento acharam que o uso da voz era apropriado para fazê-las soar mais humanas e envolventes.
“Embora estas coisas sejam convincentes, elas não são reais”, acentuou McStay.
Estas ferramentas “não sentem, não entendem, não podem amar, nunca sentiram dor, não ficaram envergonhadas, mas podem parecer como tendo isso tudo, e que são como a família, amigos e outros elementos de confiança”, adverte.
Evitar o desfoque da linha entre o humano e a máquina
Suleyman está a sugerir à industria de tecnologia que reforce a implementação de parâmetros éticos que limitem a competência da IA, monitorizem sinais de padrões de uso pouco saudável e desenvolvam formação dedicada a profissionais de saúde mental, para estudar e mitigar riscos.
Susan Shelmerdine, médica de imagens médicas do Great Ormond Street Hospital e também da AI Academic, explica à BBC que acredita que um dia os médicos vão incluir no questionário dos pacientes perguntas sobre o “quanto usam a IA, da mesma forma que atualmente perguntam sobre tabagismo e hábitos de bebida, ex”.
“Já sabemos o que os alimentos ultraprocessados podem fazer ao corpo e isso é informação ultraprocessada. Vamos ter uma avalanche de mentes ultraprocessadas”, observa.
O diretor executivo da Microsoft também propõe aos reguladores e educadores que aumentem e disponibilizem mais informação para criar uma maior consciencialização pública sobre os prós e contras da utilização da IA.
A ferramenta da Inteligência Artificial está a ser incorporada, silenciosamente, na vida diária dos utilizadores sob a forma de assistente pessoal e chatbots.
“Os companheiros da IA são uma categoria completamente nova e precisamos urgentemente de começar a falar sobre barreiras protetoras, que colocamos em prática para proteger as pessoas e garantir que essa incrível tecnologia possa fazer o seu trabalho de oferecer imenso valor ao mundo”, sublinhou Suleyman. Isto porque, sem as devidas proteções com a IA, há “um risco real e emergente”, rematou.