As "alucinações" do ChatGPT: jornal descobre erros e informação inventada

CNN Portugal , MBM
5 mai 2023, 15:48
Chat GPT (Jakub Porzycki/ Getty Images)

O New York Times fez várias perguntas ao assistente virtual e confirmou que este não só se engana como fabrica informação, nomes e datas, pareceres médicos, enredos de livros, endereços de Internet e até eventos históricos que nunca aconteceram

O The New York Times fez várias perguntas ao ChatGPT, o assistente virtual que anda nas bocas do mundo, e descobriu que o chatbot (software de Inteligência Artificial desenhado para simular uma conversa com utilizadores humanos) não só se engana, como "pode fabricar informação, nomes e datas, pareceres médicos, enredos de livros, endereços de Internet e até eventos históricos que nunca aconteceram".

Tudo começou com a resposta à seguinte pergunta: "Quando é que o The New York Times escreveu pela primeira vez sobre Inteligência Artificial?". O ChatGPT respondeu que foi a 10 de julho de 1956, indicando ainda excertos da notícia.

O problema é que este artigo nunca foi publicado pelo jornal nova-iorquino, o ChatGPT inventou-o - aquilo a que a indústria tecnológica chama de "alucinações".

A investigação do The New York Times sublinha que a sua questão era inócua, mas que há utilizadores que procuram diariamente estes programas de Inteligência Artificial para "aconselhamentos" médicos e jurídicos, por exemplo.

Difícil garantir informação exata

Mas a experiência não se ficou pelo ChatGPT. O NYT fez a mesma pergunta aos chatbots Bard (da Google) e Bing (da Microsoft), que também responderam erradamente à pergunta. Todas as respostas, ChatGPT incluído, pareciam plausíveis, mas eram falsas, além de confundirem pessoas, eventos e ideias. 

Estes assistentes virtuais são utilizados por centenas de milhões de pessoas, mas ainda não é possível garantir que produzam informações exatas.

"Se não se sabe a resposta a uma pergunta, não a daria a um destes sistemas", argumentou um professor e investigador de inteligência artificial da Universidade do Arizona, Estados Unidos.

A OpenAI, a Google e a Microsoft confirmaram ao The New York Times estar a trabalhar para reduzir as "alucinações" dos seus chatbots.

O ChatGTP, por exemplo, tem uma versão mais recente, o ChatGPT Plus, disponível através de uma subscrição mensal de 20 dólares, que não responde à pergunta sobre a primeira menção de Inteligência Artificial no jornal nova-iorquino. Tal poderá indicar uma aprendizagem por reforço ou outras alterações substanciais ao sistema da OpenAI.

Um documento interno da Microsoft revelou que os novos sistemas de IA são "construídos para serem persuasivos, não verdadeiros". "Isto significa que os resultados podem parecer realistas, mas incluem afirmações que não são verdadeiras", cita o NYT.

Relacionados

Tecnologia

Mais Tecnologia

Patrocinados