Caitlin Ner

Ver imagens geradas por IA como estas (esq. dir) “reconfigurou” o “sentido de normalidade” de Caitlin Ner (ao centro)
Ao início a IA parecia magia. Pensava numa ideia, escrevia algumas palavras e, poucos segundos depois, via-se em qualquer situação que conseguisse imaginar: a flutuar em Júpiter, com uma auréola e asas de anjo. A magia passou quando começou a ouvir vozes que lhe diziam que podia voar.
Profissionais de saúde mental começam a alertar para um novo fenómeno a que alguns chamam “psicose por IA”: situações em que as pessoas resvalam para pensamento delirante, paranoia ou alucinações desencadeadas pelas suas interações com sistemas inteligentes.
Em certos casos, os utilizadores passam a interpretar respostas de chatbots como pessoalmente significativas, conscientes, ou como contendo mensagens ocultas destinadas apenas a eles.
Mas, com a ascensão das imagens e vídeos hiper-realistas gerados por IA, há agora um risco psicológico muito mais potente, dizem os investigadores — sobretudo para utilizadores com vulnerabilidades pré-existentes para a psicose.
Há dois anos, Caitlin Ner, diretora de uma empresa norte-americana de capital de risco, viveu esta experiência em primeira mão.
Na altura, Caitlin era responsável pela experiência do utilizador numa startup de geração de imagens por IA dirigida ao consumidor e passava até nove horas por dia a escrever prompts para sistemas generativos ainda numa fase inicial, com o objetivo de melhorar os modelos da empresa.
Num artigo na Newsweek, Caitlin conta que tinha sido diagnosticada anteriormente com perturbação bipolar, mas estava estável, com medicação e terapia.
Ao início, diz Caitlin, a IA parecia magia. Rapidamente, começou a usar os prompts para gerar imagens de si própria nas mais variadas situações.
Pensava numa ideia, escrevia algumas palavras e, poucos segundos depois, via-se em qualquer situação que conseguisse imaginar: a flutuar em Júpiter; com uma auréola e asas de anjo; como uma superestrela perante 70 mil pessoas; na forma de um zombie.
Mas, em poucos meses, essa magia transformou-se em mania.
Quando Caitlin começou a trabalhar com esta IA, as imagens eram ainda imprevisíveis. Por vezes, surgiam com rostos distorcidos, membros a mais e nudez, mesmo quando não se pedia nada disso.
Passou horas intermináveis a selecionar e a depurar conteúdo para remover anomalias, mas foi exposta a tantas formas humanas perturbadoras que acredita que isso começou a distorcer a perceção do seu próprio corpo, e a sobre-estimular o seu cérebro de formas genuinamente nocivas para a sua saúde mental.
Mesmo quando as ferramentas se tornaram mais estáveis, as imagens geradas tendiam a ter formas ideais: menos defeitos, rostos mais lisos e corpos mais magros. Ver repetidamente estas imagens “reprogramou” a noção do que era normal. Quando olhava para o seu reflexo real, Caitlin via algo que precisava de ser corrigido.
A executiva deu por si a pensar: “Se ao menos eu tivesse o aspeto da minha versão de IA…”. Ficou obcecada em emagrecer, ter um corpo melhor e uma pele perfeita.
As horas de trabalho alongaram-se e começou a perder o sono, substituindo-o por uma sequência interminável de imagens geradas por IA, uma atrás da outra. O próprio processo era viciante, porque cada nova imagem dava uma dose de satisfação — um pequeno pico de dopamina. Havia sempre mais uma ideia, mais uma variação a testar, mais uma imagem a gerar.

A dada altura, após ver esta imagem gerada por IA, Caitlin começou a acreditar que conseguia voar. Esteve quase a saltar da varanda
Em pouco tempo, a sua mente foi afetada por um episódio maníaco associado à perturbação bipolar, que desencadeou uma psicose. Deixou de conseguir distinguir o que era real do que era ficção. Via padrões onde não existiam, símbolos nos resultados que lhe pareciam mensagens destinadas apenas a si.
Enquanto fixava aquelas imagens, Caitlin começou a ouvir alucinações auditivas que pareciam vir de algum lugar entre a IA e a sua própria mente. Algumas vozes eram reconfortantes; outras ridicularizavam-na ou gritavam com ela — que lhes respondia como se fossem pessoas reais a falar consigo no seu quarto.
Quando viu uma imagem sua gerada por IA num cavalo voador, começou a acreditar que podia, de facto, voar. As vozes diziam-lhe para voar da varanda, e faziam-na sentir-se confiante de que sobreviveria. Esse delírio grandioso quase a levou a saltar.
Depois de várias noites sem dormir, colapsou — física e emocionalmente. A euforia desabou em exaustão, medo, depressão e confusão.
Foi uma das experiências mais assustadoras da sua vida. O primeiro passo para se desembaraçar do episódio foi contactar amigos e familiares que conheciam o contexto da sua doença mental. Acabou por sair da startup de IA.
Não estar exposto diariamente a imagens geradas por IA ajudou-a a estabilizar, embora só tenha percebido que o seu trabalho tinha sido o gatilho do episódio quando procurou acompanhamento clínico e explicou o que tinha acontecido.
A recuperação exigiu tempo, tratamento e terapia integrativa intensiva. Desde então, estabeleceu uma relação mais equilibrada com a tecnologia. Continua a usar IA, mas impõe limites rigorosos — por exemplo, nada de prompts a altas horas da noite e nada de iterações infinitas.
Também voltou a ver-se como é. O espelho já não é o seu inimigo.
Hoje, compreende que o que aconteceu não foi apenas uma coincidência entre doença mental e tecnologia. Foi uma forma de dependência digital, alimentada por meses e meses de geração de imagens por IA.
Segundo Caitlin, andamos a construir ferramentas que esbatem a fronteira entre imaginação e realidade. Isso é bonito, mas também perigoso, especialmente para quem já vive com uma fragilidade psicológica.
A IA pode ser uma fonte de inspiração e de visualização positiva. Veio para ficar. Mas Caitlin acredita também que são necessárias mais preocupações éticas, na área da saúde mental, dentro do setor tecnológico — porque, para pessoas como ela, e para muitas outras que brincam na margem da criatividade das máquinas, a fronteira entre inspiração e instabilidade é mais ténue do que pensamos.