Nova versão tem supostamente o conhecimento de um doutorado. Mas é mesmo só supostamente, porque na realidade não consegue responder a perguntas básicas - mas pelo menos dá respostas engraçadas
A versão mais recente do ChatGPT é supostamente inteligente ao nível de um doutoramento. Mas nem sequer consegue rotular um mapa
por Allison Morrow, CNN

A versão mais recente do famoso bot ChatGPT da OpenAI, devia ser inteligente ao nível de um doutorado. Era para ser o próximo grande salto em frente para uma empresa na qual os investidores aplicaram milhares de milhões de dólares.
Em vez disso, o ChatGPT ganhou uma personalidade mais plana e concisa, incapaz de responder com segurança a perguntas básicas. A consequente zombaria pública obrigou a empresa a fazer desculpas suadas, ao mesmo tempo em que mantinha as suas afirmações pomposas sobre as capacidades do bot.
Resumindo: é um fracasso.
O erro no modelo, chamado GPT-5, é notável por duas razões.
1. Destacou as muitas deficiências existentes da IA generativa, que os críticos rapidamente aproveitaram (mais sobre isso daqui a pouco, porque foram bastante engraçadas);
2. Isso levantou sérias dúvidas sobre a capacidade da OpenAI de criar e comercializar produtos de consumo pelos quais as pessoas estejam dispostas a pagar. Isso deve ser particularmente preocupante para os investidores, já que a OpenAI, que nunca teve lucro, está avaliada em 427,5 mil milhões de euros.
Vamos voltar um pouco no tempo até à quinta-feira da semana passada, quando a OpenAI finalmente lançou o GPT-5 para o mundo — cerca de um ano atrasado, de acordo com o Wall Street Journal. Agora, se há algo em que esta indústria é realmente boa é em criar hype e nisso o CEO Sam Altman cumpriu o prometido.
Durante uma transmissão ao vivo antes do lançamento na última quinta-feira, Altman disse que conversar com o GPT-5 seria como conversar com "um especialista legítimo com nível de doutorado em qualquer área que possamos precisar".
No seu estilo tipicamente grandioso, Altman disse que o GPT-5 lembra-o de “quando o iPhone passou daqueles antigos com pixels gigantes para o ecrã retina”. O novo modelo, diz, é “significativamente melhor em aspetos óbvios e subtis e parece algo do qual não quero que nunca mais volte atrás”, disse Altman numa conferência de imprensa.
Então as pessoas começaram a usá-lo de verdade.
Os utilizadores divertiram-se imenso a testar o GPT-5 e a ridicularizar as suas respostas totalmente incorretas.
500 billion dollars and the robot can't even count to twelve
— Timothy Burke (@bubbaprog.xyz) 8 de agosto de 2025 às 17:51
[image or embed]
O jornalista Tim Burke disse no Bluesky que pediu ao GPT-5 para “mostrar um diagrama dos primeiros 12 presidentes dos Estados Unidos com uma imagem do rosto de cada um e o nome abaixo da imagem”.
O bot respondeu com uma imagem de nove pessoas, com grafias bastante criativas dos primeiros líderes dos Estados Unidos, como “Gearge Washingion” e “William Henry Harrtson”.
Uma solicitação semelhante para os últimos 12 presidentes retornou uma imagem que incluía duas versões separadas de George W. Bush - numa delas com uma cara de uma pessoa desconhecida.
At first I thought GPT 5 had got this right then I saw things like "Tonnessee," "Mississipo" and my personal favourite "West Wigina." Please do not respond just saying the different typos to me we can all read the joke, we all know about "Distrricke"
— Ed Zitron (@edzitron.com) 8 de agosto de 2025 às 03:42
[image or embed]
Rotular mapas básicos dos Estados Unidos também se revelou complicado para o GPT-5 (mas, mais uma vez, bastante engraçado, como mostrou a publicação do escritor técnico Ed Zitron no Bluesky).
As falhas do GPT-5 eram engraçadas quando éramos apenas nós, nerds, a tentar encontrar os seus pontos fracos. Mas alguns fãs regulares do ChatGPT não estavam a achar graça. Especialmente porque os utilizadores ficaram particularmente alarmados com a personalidade da nova versão – ou melhor, com a falta dela.
Ao lançar o novo modelo, a OpenAI basicamente retirou os modelos anteriores, incluindo o superpopular GPT-4o, que estava no mercado há mais de um ano, fazendo com que até mesmo as pessoas que adoravam a versão anterior do chatbot de repente não pudessem mais usá-lo. Mais de 4.000 pessoas assinaram uma petição no Change.org para obrigar a OpenAI a ressuscitá-lo.
“Estou farto do ChatGPT 5”, escreveu um utilizador no Reddit, explicando como tentou usar o novo modelo para executar “um sistema simples” de tarefas que um modelo anterior do ChatGPT costumava realizar. O utilizador disse que o GPT-5 “ficou descontrolado”, apagando tarefas e alterando prazos.
E embora os defensores da OpenAI pudessem atribuir isso a um incidente isolado ou mesmo inventado, 24 horas após o lançamento do GPT-5 Altman estava a tentar minimizar os danos, aparentemente apanhado de surpresa pela má receção. No X, anunciou uma longa lista de atualizações, incluindo o retorno do GPT-4o para assinantes pagos.
“Esperávamos alguns percalços ao lançarmos tantas coisas ao mesmo tempo”, disse Altman numa publicação. “Mas foram um pouco mais do que esperávamos!”
O facto de o CEO não ter antecipado a indignação sugere que não tem uma compreensão clara de como os cerca de 700 milhões de utilizadores ativos semanais estão a interagir com o seu produto.
Talvez Altman tenha perdido toda a cobertura noticiosa — da CNN, do New York Times, do Wall Street Journal — sobre pessoas que criaram laços emocionais profundos com o ChatGPT ou chatbots rivais, tendo conversas intermináveis com eles como se fossem pessoas reais. Uma simples pesquisa no Reddit podia ter oferecido uma ideia sobre como outras pessoas estão a integrar a ferramenta nos seus fluxos de trabalho e vidas. Uma pesquisa de mercado básica devia ter mostrado à OpenAI que uma atualização em massa que descontinuasse as ferramentas nas quais as pessoas confiam seria mais do que apenas um pouco complicada.
Quando questionado sobre a reação negativa ao GPT-5, um representante da OpenAI indicou à CNN as declarações públicas de Altman nas redes sociais anunciando o retorno de modelos mais antigos, bem como uma publicação no blogue sobre como a empresa está a otimizar o GPT-5.
O lançamento confuso mostra como a indústria de IA como um todo está a lutar para provar que é produtora de bens de consumo, em vez de “laboratórios” — como gostam de se autodenominar, porque soa mais científico e distrai as pessoas do facto de que são apoiados por pessoas que estão a tentar ganhar quantias incompreensíveis de dinheiro para si próprias.
As empresas de IA costumam basear o seu entusiasmo no desempenho de um modelo em vários testes de benchmarking realizados nos bastidores, que mostram a capacidade de um bot realizar cálculos matemáticos complexos. Pelo que sabemos, o GPT-5 passou com distinção nessas avaliações.
Mas o problema é que a OpenAI exagerou tanto na divulgação que a deceção era (ou deveria ter sido) inevitável.
“Sinceramente, não achei que a OpenAI iria manchar a marca com algo tão medíocre”, escreveu o proeminente investigador e crítico de IA Gary Marcus. “Num mundo racional, a sua avaliação seria afetada”, acrescentou, observando que a OpenAI ainda não teve lucros, está a reduzir os preços para manter o número de utilizadores e está a perder talentos à medida que a concorrência se intensifica.
Para críticos como Marcus, o fracasso do GPT-5 foi uma espécie de confirmação. Como observou numa publicação no blogue, outros modelos, como o Grok, de Elon Musk, não estão a sair-se muito melhor - e a reação negativa até mesmo dos defensores da IA parece ser um ponto de viragem.
Quando as pessoas falam sobre IA estão a referir-se a uma de duas coisas: a IA que temos agora — chatbots com utilidade limitada e definida — e a IA que empresas como a de Altman afirmam que podem construir — máquinas que podem ser mais inteligentes do que os humanos e dizer-nos como curar o cancro, resolver o aquecimento global, conduzir os nossos carros e cultivar as nossas colheitas, tudo isso enquanto nos entretêm e encantam ao longo do caminho.
Mas a diferença entre a promessa e a realidade da IA parece aumentar a cada novo modelo.