Verso Books

Detalhe da capa de “Enshittification: Why Everything Suddenly Got Worse and What to Do About It”, Cory Doctorow (2025)
À medida que empresas como a OpenAI se tornam mais poderosas, e à medida que procuram entregar dividendos aos seus investidores, será a Inteligência Artificial vulnerável à mesma erosão de valor que parece endémica nas plataformas tecnológicas que usamos hoje?
O escritor e crítico de tecnologia canadiano Cory Doctorow chama à erosão da qualidade de serviço das plataformas tecnológicas “enshittification” — um termo de difícil tradução direta, mas que designa o processo pelo qual as plataformas digitais se degradam deliberadamente.
Mas em português, “merdificação” talvez seja a expressão mais apropriada para descrever o processo de forma simples.
A premissa de Doctorow é simples, explica a Wired: as plataformas tecnológicas como a Google, a Amazon, o Facebook ou o TikTok começam por querer agradar aos utilizadores, mas, depois de eliminarem a concorrência, tornam-se intencionalmente menos úteis, para conseguir aumentar os lucros.
O termo “enshittification” foi cunhado por Doctorow em 2022 num ensaio pioneiro sobre este fenómeno, e entrou no vocabulário corrente — sobretudo porque muitos reconheceram que descrevia com precisão o que acontece. “Enshittification” foi, aliás, escolhida pela American Dialect Society como a “Palavra do Ano” de 2023.
O conceito tem sido citado com tanta frequência que já ultrapassou a sua natureza profana, surgindo até em publicações que normalmente torceriam o nariz a um termo assim. Doctorow acaba de publicar um livro homónimo sobre o tema, cuja capa mostra um emoji que é fácil adivinhar.
Se os chatbots e os agentes de IA forem “merdificados”, as consequências poderão ser ainda piores do que a degradação do motor de pesquisa da Google, os resultados da Amazon inundados de anúncios, ou o Facebook a mostrar menos conteúdos sociais e mais clickbait gerador de indignação.
A Inteligência Artificial está a seguir um percurso destinado a torná-la a nossa companhia omnipresente, oferecendo respostas diretas e únicas a muitos dos nossos pedidos. As pessoas já dependem dela para interpretar acontecimentos atuais, tomar decisões de compra — e até decisões de vida.
Dado o enorme custo de criação de um modelo de IA de larga escala, é razoável supor que apenas algumas empresas dominarão o setor. Todas planeiam investir centenas de milhares de milhões de dólares nos próximos anos para aperfeiçoar os seus modelos e colocá-los nas mãos do maior número possível de pessoas.
Neste momento, a Inteligência Artificial encontra-se na fase a que Doctorow chama de “boa para os utilizadores”.
Mas a pressão para recuperar esses gigantescos investimentos será tremenda — especialmente para empresas cujos utilizadores já estão “presos” às suas plataformas, o que permite que as empresas abusem dos seus utilizadores e clientes empresariais “para recuperarem todo o valor para si próprias”.
Quando imaginamos a “merdificação” da IA, o primeiro cenário que vem à mente é o da publicidade. O pesadelo seria que os modelos de IA passassem a fazer recomendações com base em quem paga para aparecer. Isso ainda não acontece, mas as empresas do setor estão a explorar ativamente esse espaço.
Numa entrevista recente à Stratechery, Sam Altman, CEO da OpenAI, disse acreditar que “provavelmente existe algum produto publicitário interessante que possa ser uma vitória para o utilizador e positivo para a nossa relação com ele”.
Entretanto, a OpenAI anunciou um acordo com o Walmart que permitirá aos clientes do retalhista fazer compras diretamente na aplicação do ChatGPT. Nenhum potencial conflito aí, pois claro!
A plataforma de pesquisa por IA Perplexity já tem um programa experimental em que os resultados patrocinados aparecem claramente identificados nas respostas, mas promete que esses anúncios “não irão alterar o nosso compromisso de manter um serviço fiável que lhe fornece respostas diretas e imparciais”.
Irão essas fronteiras manter-se?
“Para nós, a principal garantia é que não o permitiremos”, disse à Wired o porta-voz da Perplexity, Jesse Dwyer. E, no recente Developer Day da OpenAI, Altman afirmou que a empresa está “extremamente consciente da necessidade de ser muito cuidadosa” em servir os seus utilizadores — e não a si própria.
Mas Doctorow não dá grande crédito a declarações desse género: “Assim que uma empresa tem a capacidade de ‘merdificar’ os seus produtos, enfrentará sempre a tentação de o fazer”, escreve no seu livro.
Colocar anúncios em conversas de chatbot ou em resultados de pesquisa não é a única forma de a IA se “merdificar”. Doctorow cita vários exemplos de empresas que, depois de dominarem um mercado, mudaram o seu modelo de negócio e as suas tarifas.
Em 2023, por exemplo, a Unity, a mais popular fornecedora de ferramentas de desenvolvimento de videojogos, decidiu passar a cobrar uma “taxa de execução”. A reação foi tão negativa que os utilizadores forçaram a empresa a recuar.
Basta olhar para os serviços pagos de streaming como o Amazon Prime Video: era um serviço sem anúncios. Agora, mostra publicidade antes e durante os filmes. E é preciso pagar mais para a remover. E o preço do Prime continua a subir.
Torna-se, assim, prática comum nas grandes tecnológicas prender os utilizadores dentro de um ecossistema e depois aumentar progressivamente os custos.
Pode até acontecer que, para manter o mesmo nível de inteligência nas respostas de um chatbot, os utilizadores tenham de pagar para usar uma versão mais cara, outro truque clássico de “merdificação”.
Irá a indústria da Inteligência Artificial acabar por cair no processo de “merdificação” que Doctorow identificou tão certeiramente nas atuais gigantes tecnológicas? A Wired colocou essa mesma questão a quem alegadamente sabe tudo e mais alguma coisa: o próprio GPT-5, que deu uma resposta peculiar.
“O modelo de ‘enshittificação’ de Doctorow (as plataformas começam por beneficiar os utilizadores, depois transferem o valor para os clientes empresariais e, por fim, extraem-no para si próprias) aplica-se de forma inquietantemente precisa aos sistemas de IA, caso os incentivos não sejam controlados”.
O GPT-5 prosseguiu, descrevendo várias formas através das quais as empresas de IA poderiam degradar os seus produtos em busca de lucro e poder.
As empresas de IA podem garantir-nos que não irão “merdificar-se”. Mas ao que parece os seus próprios produtos já escreveram o manual de instruções.