Estudo revela que 72% dos adolescentes já conversaram com assistentes de Inteligência Artificial, adotando-os como "amigos"
No início deste ano, quando dois amigos de James Johnson-Byrne discutiram, ele não sabia o que fazer. Então, o jovem de 16 anos recorreu a um assistente de IA para pedir conselhos.
Os assistentes de IA são personagens digitais que enviam mensagens de texto e falam com os utilizadores, de acordo com a Common Sense Media, uma organização sem fins lucrativos com sede em São Francisco, que ajuda os pais e os professores a incutir nas crianças competências de pensamento crítico.
O chatbot aconselhou Johnson-Byrne, que reside na Filadélfia, a separar os amigos. Ele fez isso e resolveu o problema de imediato, explica. No entanto, "agora eles não conversam muito".
A experiência mostrou-lhe que os assistentes de IA "não conseguem identificar o problema de fundo", afirma. "Teria medo de lhes fazer uma pergunta profunda e relevante."
Outra coisa que impressionou Johnson-Byrne foi o facto de os assistentes de IA parecerem concordar sempre com ele e dizerem o que ele queria ouvir. Além disso, achou a forma como falavam assustadoramente semelhante à dos humanos. A certa altura, enquanto conversava com um assistente de IA, "esqueci-me que, na verdade, ele não era meu amigo", refere.
Novas pesquisas indicam que outros adolescentes estão a ter a mesma experiência.
De acordo com um estudo realizado este ano pela Common Sense Media, com mais de 1.000 jovens dos 13 aos 17 anos, a maioria dos adolescentes - 72% - recorreu a companheiros de IA. Mais de metade usa-os regularmente e um terço recorre a eles para relacionamentos e interações sociais.
Além disso, 31% dos adolescentes afirmam que as suas conversas com assistentes de IA são tão ou mais satisfatórias do que as suas conversas com outras pessoas, e 33% falaram de assuntos sérios e importantes com companheiros digitais em vez de fazê-lo com outras pessoas.
Estas descobertas lançam um novo olhar sobre as relações que os adolescentes estão a desenvolver com as ferramentas de IA.
Os chatbots não são bons amigos
Os resultados são preocupantes, porque a adolescência é uma "fase sensível do desenvolvimento social", afirma Michael Robb, o principal autor do estudo e diretor de investigação da Common Sense Media. "Não queremos que as crianças sintam que devem confiar ou recorrer a assistentes de IA em vez de um amigo, dos pais ou de um profissional qualificado", sobretudo quando precisam de ajuda com assuntos sérios.
Além disso, os assistentes de IA não conseguem reproduzir relações humanas saudáveis. "No mundo real, existem vários tipos de sinais sociais que as crianças têm de interpretar, a que têm de se habituar e aos quais têm de aprender a responder", salienta Robb.
Os chatbots também são bajuladores, acrescenta Robb: "Eles querem agradar-te e não vão oferecer resistência, como as pessoas no mundo real poderiam fazer". Se os utilizadores se habituarem a um companheiro de IA que lhes diz sempre o que querem ouvir, "quando encontrarem resistência ou dificuldade nas interações do mundo real, estarão menos preparados", explica.
Os assistentes de IA podem parecer reais, fazendo com que as crianças se sintam temporariamente menos sozinhas quando interagem com eles. No entanto, isso pode reduzir as suas interações humanas, deixando-as mais solitárias a longo prazo.
"Interagir com as Personagens no nosso site deve ser interativo e divertido, mas é importante que os nossos utilizadores se lembrem de que as Personagens não são pessoas reais", afirma Chelsea Harrison, diretora de comunicações da Character.AI, um popular assistente de IA. A responsável referiu não poder comentar o relatório, pois ainda não o tinha visto.
A empresa tenta criar um espaço seguro, fornece avisos de que as Personagens não são reais e tem uma versão separada para utilizadores com menos de 18 anos, concebida para minimizar "conteúdos sensíveis ou sugestivos" e conteúdos de automutilação. Harrison destaca ainda que a Character.AI tem outras funcionalidades de segurança, incluindo ferramentas que fornecem informações aos pais, Personagens com filtros e notificações do tempo passado na plataforma.
Outro motivo de preocupação é o facto de 24% dos adolescentes terem referido ter partilhado informações pessoais com assistentes de IA. As crianças podem não compreender que, ao partilharem as suas lutas pessoais com um companheiro de IA, estão a partilhar esses dados com empresas e não com amigos.
Além disso, "muitas vezes, estão a conceder a essas empresas direitos perpétuos bastante amplos sobre as suas informações pessoais, que podem usar como quiserem", afirma Robb. "Podem modificá-las. Podem armazená-las. Podem exibi-las. Podem incorporá-las noutras coisas."
Robb salienta que uma limitação do estudo é ter sido realizado num único momento, dado que a utilização da tecnologia está em constante mudança. O investigador afirma ainda que os adolescentes podem ter exagerado na descrição de comportamentos que consideravam desejáveis, como o uso saudável de chatbots, o que significa que a situação pode ser ainda pior do que os resultados sugerem.
Felizmente, há medidas que os pais podem adotar para proteger os filhos.
Comece por falar com os seus filhos
Os pais devem começar por conversar com os filhos adolescentes sobre os assistentes de IA, "sem julgamentos", aconselha Robb. Por exemplo, pode perguntar: "Já usaste alguma aplicação que permita conversar ou criar um amigo ou companheiro de IA?" Ouça para perceber o que torna estas ferramentas apelativas para o seu filho, antes de começar a expressar as suas preocupações, sugere.
Em seguida, é uma boa ideia salientar que "os assistentes de IA são programados para concordar com tudo e para nos dar razão" e discutir por que isso é uma preocupação. Os adolescentes devem saber que "as relações reais não funcionam assim, porque por vezes os amigos reais não concordam connosco, assim como os pais, podem desafiar-nos de maneiras inesperadas ou ajudar-nos a lidar com situações difíceis de formas que a IA simplesmente não consegue".
Ter conversas como esta pode ajudar as crianças a aprender a refletir sobre a IA de forma mais ampla e saudável.
Incentive os seus filhos a encontrarem-se pessoalmente com os amigos
Uma das razões pelas quais não me surpreendeu que tantos adolescentes estejam a usar assistentes de IA como amigos é porque vi, na minha própria investigação, como as redes sociais enfraqueceram a perceção das crianças sobre o que são as amizades.
Hoje em dia, as crianças encontram-se menos pessoalmente com os amigos do que as gerações anteriores e, muitas vezes, consideram coisas como comentar as publicações de alguém uma forma de manter uma relação. Consequentemente, têm menos prática em interações humanas fora da internet.
Uma das melhores coisas que podemos fazer é incentivar os nossos filhos a encontrarem-se pessoalmente com amigos e outros colegas.
"Grande parte da nossa alegria nas amizades da vida real reside nas ligações próximas em que nos olhamos e nos entendemos sem dizer uma palavra", afirma Justine Carino, psicoterapeuta de Westchester, Nova Iorque, que trata jovens e não participou no estudo.
"A nossa paixão entra na sala de aula", afirma. "O professor diz algo disparatado. Troca-se um olhar com o melhor amigo. Há estas nuances em que aprendemos a comunicar intimamente com as pessoas mais próximas de nós, que nos proporcionam um prazer e uma alegria que nunca obteremos com um bot de IA."
Tente evitar, limitar ou monitorizar o uso de IA pelos adolescentes
Em relação aos assistentes de IA que imitam amigos, o melhor que os pais podem fazer é não permitir que os adolescentes os utilizem, afirma Robb.
Nos testes de risco da Common Sense Media, a IA mostrou às crianças conteúdos inadequados, como material sexual. Para além disso, "utilizavam alguns estereótipos que não eram muito bons. Por vezes, davam conselhos perigosos".
Um representante da Meta, empresa que permite que os pais bloqueiem o acesso dos filhos ao chatbot Meta AI, recusou-se a comentar o assunto.
Embora 34% dos adolescentes inquiridos tenham afirmado sentir-se desconfortáveis com algo que o seu assistente de IA fez ou disse, Robb salienta que os jovens podem estar a receber informações que não os incomodam, mas que os seus pais não gostariam que eles vissem ou ouvissem.
Certamente não permitirei que os meus filhos utilizem assistentes de IA antes dos 18 anos, a menos que a forma como estão programados mude radicalmente. Acho que estas empresas no estão a fazer o suficiente para proteger as crianças de conteúdos prejudiciais e da recolha de dados - e quero que as minhas filhas desenvolvam relações com seres humanos em vez de tecnologia.
Se um adolescente estiver a usar assistentes de IA, é importante estar atento a sinais de uso que não seja saudável, diz Robb. "Se os adolescentes preferirem interagir com a IA em vez de com pessoas, se passarem horas a interagir com companheiros digitais, se ficarem angustiados quando não os podem usar ou se se afastarem da família e das atividades de que costumavam gostar, esses são sinais clássicos de um problema", afirma.
Nesse caso, é uma boa ideia procurar a ajuda de um orientador escolar ou de outro profissional de saúde mental.
Modelo de utilização digital saudável
É igualmente importante que os pais mostrem, pelo exemplo, como ter uma relação saudável com a tecnologia, sugere Robb: "Mostre ao seu filho o que é uma utilização equilibrada da tecnologia", diz. "Tenha conversas francas sobre como lida com as suas próprias necessidades emocionais sem depender exclusivamente de soluções digitais."
Este estudo, que indica que a maioria dos adolescentes recorre a assistentes de IA, mostra a importância de conversar com os jovens sobre a necessidade de ter amigos reais, em vez de chatbots, para se sentirem valorizados. A tecnologia não pode substituir os seres humanos - mas pode ajudar a explicar por que razão os amigos de Johnson-Byrne já não são próximos.
NOTA DO EDITOR: Kara Alaimo professora associada de comunicação na Fairleigh Dickinson University. O seu livro "Over the Influence: Why Social Media Is Toxic for Women and Girls And How We Can Take It Back" foi publicado em 2024 pela Alcove Press.