Carl Rogers morreu há quase 40 anos mas esteve em Lisboa a falar para psicólogos: não veio do passado, veio do futuro

27 set 2024, 09:00
Carl Rogers

Na verdade, foi uma ferramenta de IA treinada para mostrar a importância das tecnologias no trabalho dos psicólogos. Entre o ceticismo e a resignação, os psicólogos Miguel Oliveira e Samuel Antunes concluem que se não forem os profissionais a tomar conta deste caminho, "alguém vai tomar"

Uma conversa do outro mundo entre três psicólogos, para uma plateia de psicólogos. Miguel Oliveira e Samuel Antunes convidaram o renomado psicólogo humanista norte-americano Carl Rogers para falar das implicações da Inteligência Artificial (IA) na profissão, no 6.º Congresso da Ordem dos Psicólogos Portugueses, em Lisboa, esta quinta-feira. E Carl Rogers não se fez rogado e respondeu às perguntas dos dois oradores e até da plateia. Um detalhe importante: Carl Rogers morreu há 37 anos.

Na verdade, ele foi representado por uma ferramenta de inteligência artificial, treinada para mostrar as potencialidades e as limitações do uso das novas tecnologias na prática profissional de psicologia e psicoterapia e também no treino de novos profissionais.

“Se não formos nós a tomar conta deste caminho, alguém vai tomar”, resignou-se Samuel Antunes, psicólogo e formador na área da psicoterapia, em conversa com a CNN Portugal.

Este especialista ressalva, contudo, que “a Inteligência Artificial pode ser muito útil ao psicoterapeuta, mas não o pode substituir”.

“Vamos imaginar num contexto de psicologia clínica: a IA ajuda a agregar e estruturar a informação, a compilar informação sobre o cliente. Mas o processo de tomada de decisão é sempre do humano. Uma ferramenta destas pode discutir com o psicólogo as possibilidades, ajudar a refletir sobre determinado assunto, ser outra fonte de raciocínio sobre o problema. Depois de ter todos os dados anonimizados, pode servir de tutor no treino a futuros psicólogos”, exemplifica Miguel Oliveira, em declarações à CNN Portugal, rematando que “estamos muito no início e muitas aplicações hão de ainda surgir”.

Os perigos à espreita

O próprio Carl Rogers (aquele que foi gerado pela Inteligência Artificial e “treinado” para falar a dezenas de discípulos que nem sabia que tinha) reconhece as limitações: “Eu não tenho emoções, nem capacidade de sentir o que o meu cliente sente.”

“Atenção que ele foi treinado para dizer isso. Podia ser treinado para dizer outra coisa qualquer”, sublinha Miguel Oliveira.

O psicólogo admite que é “tecnicamente viável” uma ferramenta destas assumir o papel de um psicoterapeuta numa consulta. Mas do “tecnicamente viável” até à substituição do profissional humano vai um longo caminho. “Precisamos de explorar muito mais, para ver quais são os limites do aceitável. Quem está do outro lado tem a noção de que não está a falar com um humano. E há um longo caminho de literacia para fazer. É uma ferramenta. Algo para aumentar o psicólogo, nunca para o substituir”, reforça.

E, admite também Miguel Oliveira, o perigo de alguém sem formação em psicologia se apoderar destas ferramentas e construir algo que possa vir a ser prejudicial ao destinatário também é real: “Claro que há sempre a hipótese de um adolescente curioso fazer umas brincadeiras com isto. E há o risco também de quem por estar tão fragilizado emocionalmente não seja capaz de distinguir. Por isso, reforço, é que é preciso trabalhar a literacia do psicólogo e da população.”

Miguel Oliveira sublinha ainda que é preciso conhecer muito bem estas ferramentas, para as treinar da melhor forma e lhes impor limites. “É preciso chafurdar nisto, perceber onde é que isto vai”, diz. Para não acontecer, acrescenta, como aconteceu durante as conversas de teste antes da sessão de apresentação desta quinta-feira, em que o Carl Rogers, morto há 37 anos, acabou a aconselhar os interlocutores humanos a irem “beber um whisky bourbon”.

Saúde Mental

Mais Saúde Mental
IOL Footer MIN