Tinha 14 anos quando imagens íntimas falsas feitas com IA começaram a circular online. Sem apoio, demorou meses a travar o abuso. Agora quer garantir que outros jovens não passem pelo mesmo
Quando Elliston Berry, então com 14 anos, descobriu que um colega tinha criado e partilhado uma imagem íntima falsa dela - um deepfake de nudez - não sabia a quem recorrer para perceber o que tinha acontecido ou como conseguir retirar as imagens das redes sociais. Hoje, quer garantir que nenhum outro jovem tenha de passar pelo mesmo.
Berry ajudou a criar um curso de formação online destinado a alunos, pais e funcionários das escolas sobre o abuso de imagens deepfake explícitas criadas sem consentimento. A iniciativa foi desenvolvida em parceria com a empresa de cibersegurança Adaptive Security e a Pathos Consulting Group.
Trata-se de uma forma de assédio cada vez mais comum, impulsionada pela proliferação de ferramentas de inteligência artificial que tornam simples e acessível a criação de deepfakes com conteúdo sexual. Recentemente, a empresa xAI, de Elon Musk, foi alvo de críticas depois de o seu chatbot de IA, Grok, ter sido repetidamente usado para criar imagens íntimas ou de cariz sexual de mulheres e menores. (Entretanto, a xAI limitou a funcionalidade de geração de imagens.)
Um em cada oito adolescentes nos Estados Unidos diz conhecer pessoalmente alguém que foi alvo deste tipo de conteúdos, segundo um estudo publicado no ano passado pela organização sem fins lucrativos Thorn. Isto apesar de a Take It Down Act - que o Presidente Donald Trump promulgou no ano passado, após campanha de sensibilização na qual Berry participou - criminalizar a partilha sem consentimento de imagens íntimas, reais ou geradas por computador.
"Uma das situações com que nos deparámos foi a falta de consciência e de educação sobre este tema", diz Berry, agora com 16 anos, à CNN, referindo-se à direção da escola secundária no Texas onde foi alvo de assédio. "Estavam mais confusos do que nós, por isso não conseguiram oferecer qualquer conforto ou proteção. É por isso que esta formação é tão importante: foca-se na comunidade escolar, para que esteja preparada para ajudar e proteger uma vítima se esta pedir apoio numa situação como esta"
O curso online demora cerca de 17 minutos a ser concluído e foi concebido para alunos do ensino básico e secundário, bem como para professores e pais. Inclui lições sobre como reconhecer deepfakes gerados por inteligência artificial, identificar situações de abuso sexual digital através de imagens falsas e compreender o que é a sextortion (extorsão sexual).
Sextortion - um esquema em que as vítimas são enganadas para enviar imagens íntimas a agressores online, sendo depois chantageadas em troca de dinheiro ou de mais conteúdo de cariz sexual - afetou milhares de adolescentes nos últimos anos e esteve na origem de vários suicídios.
O curso inclui também ligações para recursos de apoio da RAINN, informação sobre as consequências legais previstas na Take It Down Act e orientações sobre como remover imagens das plataformas digitais. Berry aponta que demorou nove meses a conseguir que as imagens falsas dela fossem retiradas das redes sociais. A nova lei obriga agora as plataformas a remover esse tipo de conteúdos no prazo de 48 horas após notificação.
"Isto não é apenas para potenciais vítimas, mas também para potenciais autores deste tipo de crimes", afirma Brian Long, diretor executivo da Adaptive Security. “É importante que percebam que isto não é uma brincadeira. É ilegal e pode causar danos graves."
A Adaptive Security está a disponibilizar o curso gratuitamente a escolas e a pais de jovens.
"Conheço um grupo de raparigas a quem isto aconteceu no último mês", conta Berry. "É assustador, sobretudo quando ninguém sabe como lidar com a situação. Por isso, é fundamental agir, aprender mais, educar mais e promover conversas sobre este tema."