Quem já tem por hábito pedir ajuda ao ChatGPT corre o sério risco de se apaixonar
Nunca o enredo de "Her - Uma História de Amor", filme escrito, dirigido e produzido por Spike Jonze em 2013, esteve tão perto de se tornar real.
A ação decorre em Los Angeles e acompanha Theodore Twombly (Joaquin Phoenix) a braços com um desgosto de amor. De coração partido, decide experimentar um novo sistema operativo que promete ser um assistente virtual com características únicas.
É assim que chega à fala com Samantha (Scarlett Johansson), sempre disponível para solucionar qualquer problema, enquanto se mostra sensível e com sentido de humor. Ingredientes mais do que suficientes para que a amizade se transforme num romance inesperado.
Para quem pensa que é apenas ficção e não corre este risco, a OpenAI anda a testar o novo GPT-4º e não tem assim tantas certezas. O chatbot de última geração fala em voz alta com a sua própria voz e a empresa notou que alguns utilizadores criaram uma relação emocional com a inteligência artificial - uma relação que pareciam tristes por abandonar.
É a própria OpenAI a acreditar que existe o risco de as pessoas desenvolverem uma espécie de “dependência emocional” deste modelo de IA, como reconheceu num relatório recente.
A capacidade de ajudar a concluir tarefas para o utilizador, enquanto armazena e recorda detalhes importantes e os utiliza na conversa, “cria uma experiência de produto atraente e o potencial de excesso de confiança e dependência”, nota a OpenAI.
A capacidade da IA para manter uma conversa natural com o utilizador pode aumentar o risco de antropomorfização, ou seja, de atribuir caraterísticas humanas a um não-humano. E é aqui que algumas pessoas podem ser levadas a estabelecer uma relação social mais profunda com a IA.
Ainda que consciente dos riscos, a empresa já lançou o modelo com modo de voz para alguns utilizadores pagos. Em outubro, a novidade deve ficar disponível para todos os utilizadores.