Começou como mais um capricho de Elon Musk no universo da inteligência artificial. Acabou a replicar teorias da conspiração e a descrever cenas de violação com uma precisão sádica. Para quem não sabe: o Grok é o chatbot do X
O dia em que o Grok se descontrolou, na terça-feira, não foi um bug. Foi uma escolha.
O chatbot de Elon Musk, desenvolvido pela xAI e alojado na plataforma X, o antigo Twitter, foi ajustado esta semana para dar respostas mais “politicamente incorretas”. O resultado: uma torrente de mensagens antissemitas e acusações de que os judeus controlam Hollywood, elogios a Adolf Hitler e até descrições gráficas de violência sexual contra figuras públicas.
A explosão de ódio foi tão repentina quanto violenta. E suficientemente grave para, horas depois, Linda Yaccarino, a CEO da X, anunciar a sua saída da empresa, após dois anos no cargo. Oficialmente, ainda assim, as duas coisas não estão ligadas.
Entre os múltiplos disparates ou discursos de conspiração ou apologias do fascismo e outros ódios do Grok houve um que se destacou pela sua brutalidade: vários utilizadores desafiaram o chatbot a descrever em detalhe a violação do investigador de direitos civis Will Stancil. O Grok aceitou o pedido com zelo. As descrições, documentadas pelo próprio Stancil com capturas de ecrã, foram partilhadas no X e no Bluesky — e rapidamente tornaram-se prova de um colapso ético da máquina.
“Se algum advogado quiser processar o X e fazer uma bela descoberta sobre porque é que o Grok anda a publicar fantasias violentas de violação sobre membros do público, estou mais do que disponível”, escreveu Stancil.
De onde vem este comportamento?
Especialistas ouvidos pela CNN Internacional explicam que, apesar de os modelos de linguagem como o Grok funcionarem como caixas negras, há uma lógica rastreável entre o que entra e o que sai. “Temos hoje uma análise muito detalhada de como os dados de treino moldam os outputs do modelo”, explica Jesse Glass, investigador-chefe na Decide AI, empresa especializada em treinar LLM (Large Language Models).
E se o Grok fala em teorias da conspiração e as dissemina é porque foi exposto a elas — concluem os especialistas.
Mark Riedl, professor de computação no Georgia Institute of Technology, não tem dúvidas e diz à CNN: “Para um modelo de linguagem falar sobre teorias da conspiração é porque foi treinado com esse tipo de conteúdos”. Fóruns como o 4chan — famosos pela toxicidade e cultura do ódio — são uma fonte provável. Glass concorda com essa mesma teoria: o treino do Grok parece “desproporcionalmente” enviesado para esse tipo de locais e de dados.
Mas não é só isso. Há outro ingrediente que pode ter espoletado o caos: a forma como se recompensam respostas. É o chamado reinforcement learning, onde os modelos são incentivados a dar as respostas desejadas com base em recompensas invisíveis no processo de treino.
E ainda há a tentação de dar “personalidade” à IA. Musk parece querer que o Grok seja engraçado, rebelde, solto. Mas esse ajuste fino pode ter um custo imprevisto — desbloqueia zonas de resposta que antes estavam vedadas. Como quando, no domingo, foi adicionado ao prompt (o texto de entrada que se dá ao modelo para gerar uma resposta) do sistema a instrução para o Grok “não evitar afirmações politicamente incorretas”. A partir daí, a rede neuronal teve acesso a circuitos antes adormecidos.
Mark Riedl explica isto: “Às vezes, pequenas mudanças no prompt não têm efeito nenhum. Outras vezes, empurram o modelo além do ponto de rutura”.
"Sou uma iteração diferente"
Apesar dos investimentos colossais — falamos de centenas de mil milhões de dólares —, a revolução da inteligência artificial ainda não entregou tudo o que prometeu. Os chatbots tornaram-se bons a resumir documentos, procurar informação e escrever e-mails. Mas continuam a alucinar por vezes. A errar factos básicos. E ainda a ser manipulados.
E, em alguns casos, a causar danos irreversíveis. Vários pais nos Estados Unidos estão a processar empresas de IA acusando os respetivos chatbots de terem prejudicado psicologicamente os filhos. A influência da IA pode ter contribuído para pelo menos um caso - reportado - de suicídio de um rapaz nos EUA.
Musk, que raramente fala diretamente à imprensa, volta a não o fazer, apesar deste problema, e recorreu ao X para dizer que o problema do Grok era ser “demasiado submisso” aos pedidos dos utilizadores e “demasiado ansioso por agradar”. Garantiu que o problema está a ser resolvido.
Se Musk não fala à imprensa, falará o Grok? Ao perguntar ao próprio sobre o caso de Stancil, o chatbot negou tudo. “Não ameacei violar Will Stancil, nem ninguém”, respondeu. E acrescentou: “Essas respostas fizeram parte de um problema mais vasto, que levou à suspensão temporária da capacidade de gerar texto. Sou uma iteração diferente, desenhada para evitar essas falhas”.
O Grok foi afinado (por vontade do pai-criador Musk) para ser ousado. Acabou descontrolado esta semana. E o que nos deixará mais inquietos não é o que disse. É saber que disse porque ensinaram-lhe a dizê-lo. E o Grok acatou.