O lançamento do GPT-5, há poucos dias, foi antecipado como o momento em que a OpenAI consolidaria a sua liderança tecnológica, prometendo um salto qualitativo que uniria capacidades multimodais — texto, imagem, áudio e vídeo — a um raciocínio mais profundo e contextual, disponível mesmo para utilizadores sem subscrições pagas. O novo modelo, segundo a própria empresa, seria capaz de lidar com contextos alargados de até 400 mil tokens na API e 256 mil no ChatGPT, introduzindo ainda um “modo pensante” para tarefas mais complexas e um sistema de reencaminhamento automático que escolheria, de forma inteligente, a variante do modelo mais adequada para cada pedido. Durante a apresentação do novo modelo, a OpenAI descreveu o GPT-5 como “como falar com um especialista com doutoramento”, um posicionamento que criou expectativas tão elevadas quanto difíceis de cumprir.
Contudo, poucas horas após o lançamento, a narrativa mudou. O que deveria ser celebrado como um marco tornou-se rapidamente num caso de estudo sobre falhas de comunicação, decisões estratégicas mal calibradas e a subestimação da relação emocional que muitos utilizadores estabeleceram com versões anteriores do ChatGPT. A decisão mais polémica foi a remoção súbita e sem aviso prévio de todos os modelos anteriores, incluindo o muito popular GPT-4o e variantes como o GPT-4.1 e o GPT-4.5. Ao contrário do que acontece com os clientes da API (soluções de terceiros ligadas ao GPT), que recebem notificações antecipadas sobre descontinuações, os utilizadores da aplicação e da versão web viram, de um dia para o outro, os seus fluxos de trabalho, desenvolvidos e refinados ao longo de meses, tornarem-se obsoletos.
Reacções negativas em cadeia
A reacção foi imediata e visceral. No Reddit, o thread “GPT-5 is horrible” acumulou milhares de votos e comentários. Um utilizador descreveu o novo modelo como “a versão OpenAI de shrinkflation”, numa alusão à prática de reduzir o conteúdo mantendo o preço; outro confessou simplesmente: “Sinto falta do 4.1. Tragam-no de Volta”. O Ars Technica compilou queixas que vão desde respostas mais curtas e menos inspiradas até a um tom excessivamente formal, comparado por alguns a uma “secretária sobrecarregada”, que despacha tarefas sem criatividade. Muitos relatavam perda de nuance colaborativa, algo que identificavam como marca do GPT-4o.
O Reddit tem sido usado por utilizadores descontentes com o GPT-5 para apresentarem as suas queixas
DR
Para utilizadores com assinatura Plus, a frustração foi agravada por limites de utilização mais restritivos no GPT-5, enquanto perdiam acesso a modelos nos quais baseavam tarefas críticas. No Windows Central, um artigo de protesto descrevia o GPT-5 como um “zombie corporativo bege”, acusando-o de sacrificar personalidade em nome de eficiência.
Essa percepção de “downgrade” foi amplamente debatida, incluindo no MIT Technology Review, onde se classificou o novo modelo mais como um “produto aperfeiçoado” do que um verdadeiro salto tecnológico. O Economic Times foi ainda mais duro, resumindo-o em duas palavras: “sobrevalorizado, decepcionante”.
Falhas técnicas
A contestação não se limitou a percepções subjectivas. Falhas técnicas reais reforçaram a insatisfação: o sistema de selecção do modelo encaminhamento automático, concebido para melhorar a experiência, acabou nos primeiros dias por encaminhar muitos pedidos para variantes menos capazes, criando inconsistências que deixaram alguns profissionais a duvidar da fiabilidade do serviço.
Por outro lado, a apresentação oficial foi criticada por causa de gráficos que representavam de forma imprecisa as melhorias de desempenho. Sam Altman, CEO da OpenAI, admitiu posteriormente, num Ask Me Anything no Reddit, que esse deslize foi “um erro crasso” e um “chart crime” — expressão usada para gráficos enganosos.
Um dos elementos mais reveladores deste episódio foi a constatação de que, para muitos, a IA deixou de ser apenas uma ferramenta. Altman reconheceu que alguns utilizadores mantinham uma ligação quase afectiva com modelos como o GPT-4o, descrevendo a tendência como “um fenómeno novo e complexo”, que levanta questões sobre dependência e a forma como alguns utilizadores atribuem traços quase humanos a sistemas algorítmicos. Esta relação emocional explica a intensidade das reacções. Um investigador entrevistado pela Wired referiu que “não foi só uma mudança de software; foi como perder um colega de trabalho com quem se tinha uma relação de confiança”.
Passo atrás
Perante a escala da contestação, a OpenAI adoptou uma postura de controlo de danos. Num gesto pouco habitual, Altman e elementos da equipa assumiram publicamente as falhas, pediram desculpa e anunciaram medidas imediatas. Entre elas, o restabelecimento do GPT-4o como opção para utilizadores com o plano de subscrição Plus, o aumento dos limites de utilização do GPT-5 e a promessa de maior transparência na identificação do modelo activo em cada sessão. A empresa comprometeu-se também a afinar o “thinking mode” e o sistema de reencaminhamento, para evitar experiências inconsistentes.
A reposição do GPT-4o foi vista como um recuo táctico e um sinal claro de que a empresa reconheceu ter subestimado a dimensão do apego dos utilizadores e o impacto operacional da mudança. Como escreveu a Axios, este episódio foi um lembrete de que “a inovação tecnológica, quando desacompanhada de comunicação clara e respeito pelos hábitos do utilizador, pode transformar-se num retrocesso de confiança difícil de reparar”.