Sicofantia, também conhecida como alucinação, é um problema sério que afeta soluções de Inteligência Artificial (IA). Um dos motivos é a qualidade do conteúdo que LLMs e outros produtos devoram para treinar seus algoritmos, se a fonte for problemática (mais a seguir), os resultados tendem a ser completamente doidos.

Exemplo não faltam, desde o Whisper inventando trechos de áudio inteiros, ao Grok exaltando Elon Musk, seu “pai” e chefe, como o maior humano da História (não no sentido de altura, e essa piada nunca teve graça).

IA deveria fornecer fontes reais, mas ao invés disso... (Crédito: Shutterstock)

IA deveria fornecer fontes reais, mas ao invés disso… (Crédito: Shutterstock)

O problema da vez são IAs criando citações a artigos científicos, fontes acadêmicas, e livros que não existem, o que tem levado os usuários, ao não encontrarem tais fontes, a acusarem institutos de ocultarem informação.

IA alucinada cita fontes vindas do Éter

O alerta veio primeiro do Comitê Internacional da Cruz Vermelha (CICV, ou ICRC na sigla em inglês), ao mencionar que diversos chatbots, tais como o ChatGPT da OpenAI, o Google Gemini (ex-Bard), e o Microsoft Copilot, entre outros, estariam citando fontes e referências científicas inexistentes em solicitações feitas pelos usuários.

Esses estão acreditando piamente no que as IAs falam, o que nem chega a ser uma surpresa; basta lembrar que “Grok, isso é verdade?” virou um meme e símbolo de uma geração incapaz de fazer pesquisa por conta própria, ao defenderem que algoritmos sabem de tudo.

O alerta do CICV vem do fato de que os usuários de algoritmos, ao não encontrarem as fontes citadas e na incapacidade de considerar que a IA alucinou tudo, passaram a acusar bibliotecas e institutos de ocultarem livros e pesquisas, como se tivessem descoberto uma grande conspiração.

Sabe o adágio que diz “se informação pura fosse poder, as bibliotecárias dominariam o mundo”? Essa turma o está levando a sério.

Sarah Falls, chefe do departamento de pesquisa da Biblioteca da Virgínia, nos Estados Unidos, disse à Scientific American que 15% dos e-mails recebidos por pessoas questionando fontes imprecisas, são de citações errôneas geradas por chatbots como o ChatGPT, e pior, algumas pessoas não acreditam quando recebem a resposta que a Revista do Auxílio Internacional (Journal of International Relief), ou o Repositório Digital Humanitário Internacional (International Humanitarian Digital Repository) não existem.

Tais pessoas exigem que as bibliotecárias encontrem tais fontes, ou partem direto para a acusação de que estas estão escondendo informação, e preferem acreditar em uma IA que tende a alucinar dia sim, dia também, do que em um profissional treinado em encontrar e catalogar informações, de forma muito mais confiável.

O alerta da CIVC é bem claro: chatbots e IAs foram criados para prover informação, e não consideram a ideia de que não há nada para informar; o algoritmo não considera silêncio ou uma negativa uma resposta satisfatória, o que o leva à tendência de alucinar.

E mais importante, se uma IA diz que uma fonte existe, mas ela não pôde ser encontrada, isso pode ser explicado por documentos armazenados em outros institutos, citações incompletas, ou o mais provável, um algoritmo piroquinha das ideias.

Casos similares e vexatórios incluem uma lista de 15 livros recomendados, publicada pelo jornal The Chicago Sun-Times em maio de 2025, em que 10 não existiam, e um relatório da iniciativa Make America Health Again (MAHA), do secretário de Saúde dos EUA Robert F. Kennedy Jr., em que 7 dos 522 estudos listados não existem, além de inúmeras outras fontes com problemas, de conclusões erradas a links quebrados.

Do Ouroboros à Vaca Louca

A sicofantia da IA é conhecido pelo menos desde 2024, sendo associado à qualidade dos dados com os quais os algoritmos são alimentados; estes devoram tudo o que existe na internet e retornam dados das mais diversas formas, inclusive resumindo artigos e roubando visualizações de sites.

O problema surge exatamente aí: se boa parte do conteúdo da internet passa a ser produzido pela Inteligência Artificial, e soluções generativas continuam a coletar dados da rede para treinar seus modelos, inevitavelmente a IA começará a usar a si mesma como fonte, em um ciclo infinito de comilança e regurgitação. Basicamente, a IA está devorando a própria cauda, algo provado em estudos como capaz de colapsar modelos.

Um dos mais recentes a apontar esse fenômeno foi Dan Houser, co-fundador da Rockstar Games e uma das mentes criativas por trás da franquia de games Grand Theft Auto. Em entrevista recente concedida ao radialista Chris Evans (o ex-Top Gear, não o Capitão América), ele detonou executivos empurrando a IA como a última bolacha do pacote, lembrando que muito da motivação por sua adoção em todas as frentes está ligada à redução de empregos e corte de despesas com pessoal.

Especificamente sobre a tecnologia, Houser disse que eventualmente a IA vai se autodevorar, porque com a internet com cada vez menos conteúdo criado por humanos, a situação escalará para algoritmos vomitando dados alucinados ad aeternum, “similar à síndrome da vaca louca”, doença generativa fatal, inclusive em humanos, surgida quando bovinos ingeriram alimentos contaminados por restos de sua própria espécie, ou de outros ruminantes (ovinos, no caso).

Companhias como OpenAI, Microsoft e Google defendem a coleta de dados de todas as fontes possíveis e existentes, mesmo as protegidas por direitos autorais, e usam a carta do uso aceitável para não terem que pagar nada a ninguém; o presidente dos EUA Donald Trump concorda, ao dizer que esta é a única forma dos algoritmos Made in America concorrerem em iguais termos com a China.

Porém, com conteúdos de IA cada vez mais permeando a internet, é de se esperar que algoritmos acabem se alimentando de suas próprias citações, e acabem gerando resultados malucos e alucinados, como fontes científicas que não existem para irritar bibliotecárias; há quem aponte ser este o estopim que causará a explosão da bolha do setor, cuja existência até mesmo Sam Altman, CEO da OpenAI, reconhece.

Fonte: ICRC, Scientific American, 404 Media