Não é só a Taylor Swift: como a pornografia gerada por IA atinge mulheres e crianças em todo o mundo

CNN , Samantha Murphy Kelly
3 fev, 22:00
(D-Keine/iStockphoto/Getty Images)

A circulação de fotografias explícitas e pornográficas da cantora Taylor Swift veio mostrar a capacidade da Inteligência Artificial (IA) para criar imagens convincentemente reais, prejudiciais - e falsas.

Mas o conceito está longe de ser novo: há anos que as pessoas utilizam este tipo de tecnologia como arma contra mulheres e raparigas. E com o aumento e o acesso crescente às ferramentas de IA, os especialistas dizem que a situação está prestes a piorar muito, para todos, desde crianças em idade escolar a adultos.

Alguns estudantes do ensino secundário de todo o mundo, de Nova Jérsia a Espanha, já denunciaram que os seus rostos foram manipulados por IA e partilhados online por colegas de turma. Entretanto, uma jovem e conhecida streamer do Twitch descobriu que a sua imagem estava a ser utilizada num vídeo pornográfico explícito falso que se espalhou rapidamente pela comunidade de jogadores.

"Não são apenas as celebridades que são visadas", afirmou Danielle Citron, professora da Faculdade de Direito da Universidade da Virgínia. "São pessoas comuns. São enfermeiras, estudantes de arte e direito, professores e jornalistas. Vimos histórias sobre como isto tem impacto nos estudantes do ensino secundário e nos militares. Isto atinge toda a gente".

Mas embora a prática não seja nova, o facto de Swift ser visada poderá chamar mais a atenção para as questões crescentes em torno das imagens geradas por IA. O seu enorme contigente de fãs leais "Swifties" expressou a sua indignação nas redes sociais esta semana, trazendo a questão para o primeiro plano. Em 2022, um colapso da Ticketmaster antes do seu concerto da Eras Tour provocou a ira online, levando a vários esforços legislativos para reprimir as políticas de emissão de bilhetes pouco amigáveis para o consumidor.

"Este é um momento interessante porque Taylor Swift é tão amada", afirmou Citron. "As pessoas podem estar a prestar mais atenção porque se trata de alguém geralmente admirado que tem uma força cultural. ... É um momento de reflexão".

Razões negativas sem proteção suficiente

As imagens falsas de Taylor Swift espalharam-se predominantemente na rede social X, anteriormente conhecida como Twitter. As fotografias - que mostram a cantora em posições sexualmente sugestivas e explícitas - foram vistas dezenas de milhões de vezes antes de serem removidas das plataformas sociais. Mas nada na Internet desaparece verdadeiramente para sempre e, sem dúvida, continuarão a ser partilhadas noutros canais menos regulamentados.

Embora tenham circulado avisos severos sobre a forma como imagens e vídeos falsos gerados por IA podem ser utilizados para fazer derrapar as eleições presidenciais e liderar os esforços de desinformação, tem havido menos discursos públicos sobre a forma como os rostos das mulheres têm sido manipulados, sem o seu consentimento, em vídeos e fotografias pornográficas frequentemente agressivas.

A tendência crescente é o equivalente em IA a uma prática conhecida como "pornografia de vingança". E está a tornar-se cada vez mais difícil determinar se as fotografias e os vídeos são autênticos.

O que é diferente desta vez, no entanto, é o facto de a base de fãs leais de Swift se ter unido para utilizar as ferramentas de denúncia e eliminar efetivamente as publicações. "Empenharam-se tantas pessoas nisso, mas a maioria das vítimas só se tem a si mesma", comentou Citron.

Embora tenham sido necessárias 17 horas para que o X retirasse as fotografias, muitas imagens manipuladas continuam a ser publicadas nas redes sociais. De acordo com Ben Decker, que dirige a Memetica, uma agência de investigação digital, as empresas de redes sociais "não têm planos eficazes para controlar necessariamente o conteúdo".

Tal como a maior parte das grandes plataformas de redes sociais, as políticas da X proíbem a partilha de "meios sintéticos, manipulados ou fora de contexto que possam enganar ou confundir as pessoas e causar danos". Mas, ao mesmo tempo, a X reduziu bastante a sua equipa de moderação de conteúdos e baseia-se em sistemas automatizados e na denúncia dos utilizadores. (Na UE, a X está atualmente a ser investigada pelas suas práticas de moderação de conteúdos).

A empresa não respondeu ao pedido de comentário da CNN.

Outras empresas de redes sociais também reduziram as suas equipas de moderação de conteúdos. A Meta, por exemplo, fez cortes nas equipas que combatem a desinformação e coordenam campanhas de trolls e assédio nas suas plataformas, revelaram à CNN pessoas com conhecimento direto da situação, o que suscita preocupações antes das importantes eleições de 2024 nos EUA e em todo o mundo.

Decker afirmou que o que aconteceu com Swift é um "excelente exemplo das maneiras pelas quais a IA está a ser desencadeada por uma série de razões negativas, sem que existam barreiras suficientes para proteger a praça pública".

Quando questionada sobre as imagens na sexta-feira, a secretária de imprensa da Casa Branca, Karine Jean-Pierre, afirmou que a questão "é alarmante". "Estamos alarmados com os relatos da circulação de imagens que acabou de referir - imagens falsas, para ser mais exacta, e é alarmante".

Uma tendência crescente

Embora esta tecnologia já esteja disponível há algum tempo, a Inteligência Artificial está agora a receber uma atenção renovada devido às fotografias ofensivas de Swift.

No ano passado, uma estudante do liceu de Nova Jérsia lançou uma campanha para que a legislação federal abordasse a questão das imagens pornográficas geradas por IA, depois de ter afirmado que as fotografias dela e de outras 30 colegas de turma foram manipuladas e possivelmente divulgadas online.

Francesca Mani, aluna da Westfield High School, mostrou-se frustrada com a falta de recursos legais para proteger as vítimas de pornografia gerada por IA. A mãe de Mani afirmou à CNN que parece que "um rapaz ou alguns rapazes" da comunidade criaram as imagens sem o consentimento das raparigas.

"Todos os distritos escolares estão a lutar com os desafios e o impacto da inteligência artificial e outras tecnologias disponíveis para os alunos a qualquer hora e em qualquer lugar", revelou o superintendente de Westfield, Dr. Raymond González, à CNN num comunicado divulgado na época.

Em fevereiro de 2023, um problema semelhante atingiu a comunidade dos videojogos, quando um streamer masculino de alto nível na popular plataforma Twitch foi apanhado a ver vídeos "deepfake" de algumas das colegas do Twitch. A streamer do Twitch "Sweet Anita" viria depois a afirmar à CNN que é "muito, muito surreal vermo-nos a nós próprios a fazer algo que nunca fizemos".

O aumento e o acesso a ferramentas geradas por IA tornou mais fácil para qualquer pessoa criar este tipo de imagens e vídeos. Para além disso, segundo Decker, existe também um mundo muito mais vasto de modelos de IA não controlados e inseguros para o trabalho em plataformas de código aberto.

A luta contra esta situação continua a ser difícil. Nove estados dos EUA têm atualmente leis contra a criação ou partilha de fotografias deepfake não consensuais, imagens sintéticas criadas para imitar a imagem de uma pessoa, mas não existe nenhuma a nível federal. Muitos especialistas apelam a alterações à Secção 230 da Lei da Decência nas Comunicações, que protege as plataformas online de serem responsabilizadas por conteúdos gerados pelos utilizadores.

"Não se pode punir com base nas leis de pornografia infantil (...) e é diferente no sentido de que não há abuso sexual de crianças", afirmou Citron. "Mas a humilhação e o sentimento de ser transformado num objeto, o facto de outras pessoas o verem como um objeto sexual e a forma como interioriza esse sentimento (...) é terrivelmente perturbador para a sua autoestima social."

Como proteger as suas imagens

As pessoas podem tomar pequenas medidas para se protegerem da utilização da sua imagem em imagens não consensuais.

O especialista em segurança informática David Jones, da empresa de serviços de informática Firewall Technical, aconselha as pessoas a manterem os perfis privados e a partilharem fotografias apenas com pessoas de confiança, porque "nunca se sabe quem pode estar a ver o nosso perfil".

Ainda assim, muitas pessoas que participam em "pornografia de vingança" conhecem pessoalmente os respectivos alvos, pelo que limitar o que é partilhado em geral é a via mais segura.

Além disso, as ferramentas usadas para criar imagens explícitas também exigem muitos dados brutos e imagens que mostram rostos de diferentes ângulos, portanto, quanto menos alguém tiver que trabalhar, melhor. No entanto, Jones avisou que, como os sistemas de IA estão a tornar-se mais eficientes, é possível que, no futuro, seja necessária apenas uma fotografia para criar uma versão deepfake de outra pessoa.

Os piratas informáticos também podem tentar explorar as suas vítimas acedendo às suas fotografias. "Se os piratas informáticos estiverem determinados, podem tentar decifrar as suas palavras-passe para poderem aceder às suas fotografias e vídeos que partilha nas suas contas", afirmou. "Nunca utilize uma palavra-passe fácil de adivinhar e nunca a escreva."

Betsy Kline, da CNN, contribuiu para este artigo.

Relacionados

Tecnologia

Mais Tecnologia

Mais Lidas

Patrocinados