"Eu nunca tirei estas fotografias, mas pareciam reais. Deixaram-me muito confusa". Mariana Rocha Assis, surfista portuguesa, foi chantageada com 'fake nudes' geradas por IA

27 dez 2023, 07:00
Surf

A surfista e skater portuguesa Mariana Rocha Assis foi vítima de assédio virtual, quando um ‘hacker’ exigiu cinco mil euros para ocultar imagens de nudez fabricadas (as chamadas ‘fakenudes’), ameaçando mais do que a sua privacidade

"Naquele momento, olhei para aquelas imagens e pensei: 'Eu nunca tirei isto'. Eu nunca tirei estas fotografias, mas estavam super reais e fiquei muito confusa", conta Mariana Rocha Assis, surfista e skater portuguesa de 26 anos. Segundo a própria, em telefonema à CNN Portugal, esta experiência afetou-a emocionalmente, gerando ataques de pânico e vómitos constantes.

No dia 17 de novembro, Mariana recebeu uma mensagem com um conjunto de imagens explícitas que a retratavam nua. De um realismo impressionante, estas imagens foram, no entanto, inteiramente fabricadas através do uso de Inteligência Artificial. O remetente, um desconhecido, procurava explorar a vulnerabilidade de Mariana, exigindo-lhe cinco mil euros. A ameaça era grande - a exposição da família, dos patrocinadores e a destruição do seu negócio de hotelaria, recém-criado, no Sri Lanka.

Mariana, decidida a não ceder à chantagem, ignorou a mensagem e bloqueou o número. "Eu disse que não tinha dinheiro, não lhe ia pagar nada, o ‘hacker’ que partilhasse com quem quisesse”. A surfista explica que decidiu partilhar a situação com os seus patrocinadores para não ter nenhum problema e que todos foram bastante compreensivos.

Contudo, o ‘hacker’ enviou uma mensagem de outro número dizendo que Mariana tinha até ao fim do mês para lhe enviar o dinheiro. “Foi aí que o tormento aumentou”, diz a surfista. Entre 17 a 30 de novembro, Mariana diz que esteve noites sem dormir, ataques de pânico constantes e vómitos persistentes. “Estava nervosa com o que pudesse acontecer”. 

“Tenho receio que o ‘hacker’ pague a pessoas para me virem destruir ou através de Inteligência Artificial escreverem ‘bad reviews’ de pessoas que nunca sequer estiveram no hotel”, diz a surfista à CNN Portugal. Sem se deixar intimidar, Mariana denunciou o incidente às autoridades do Sri Lanka, onde se encontra atualmente, e foi aconselhada a desaparecer das redes sociais. No entanto, Mariana recusou categoricamente, determinada a não deixar que um criminoso ditasse o rumo da sua vida.

Mariana Rocha Assis é o meu nome. Eu não ia apagar a minha vida, construí todo um percurso à volta do meu nome”. 

Assim que chegou o dia 30 de novembro, Mariana recebeu uma mensagem do ‘hacker’, que bloqueou imediatamente. No entanto, continuou a receber mensagens de diferentes números. “O ‘hacker’ enviou-me várias mensagens, sempre de números diferentes, de países diferentes, inclusive”. 

“Foi aí que decidi fazer uma publicação no Instagram”, diz a surfista. Nesse post Mariana denuncia o assédio de que foi alvo e apela a que “todos os governantes do mundo façam algo”. “O que mais me afetou foi o facto de eu investir as poupanças de uma vida inteira num hotel e ele dizer que me vai destruir isso”, partilha a surfista. 

 

Mariana conta que o ‘hacker’ chegou a comentar a publicação, questionando se ela iria “armar-se em vítima”. “Ele chegou a comentar que fui eu que enviei as fotografias e que tinha toda uma conversa nossa”, relata, confessando algum temor com as capacidades da Inteligência Artificial. “Lá está, se uma pessoa consegue reproduzir fotografias destas, também deve conseguir fingir que fui eu que as enviei”, diz Mariana, que acredita que o ‘hacker’ pode reproduzir uma conversa entre os dois. 

Para perceber as implicações legais de um caso como o de Mariana Rocha Assis, a CNN Portugal falou com Nuno da Silva Vieira, advogado com experiência em Inteligência Artificial. 

O sócio da Antas da Cunha ECIJA divide a questão em quatro pontos-chave, enfatizando a manipulação de imagens e vídeos através da IA, particularmente utilizando tecnologias como ‘deep learning’ e as tecnologias degenerativas (GAM).

Nuno da Silva Vieira identifica dois grupos principais de utilizadores da técnica ‘deepfake’: os entusiastas para entretenimento e os que têm intenções maliciosas, frequentemente envolvidos em crimes tecnológicos organizados para obterem ganhos financeiros. Já as vítimas, são normalmente indivíduos com perfis públicos ou empresas. “As vítimas podem sofrer impactos devastadores, tais como danos reputacionais, stress emocional, consequências profissionais e doenças, incluindo depressão e ausência social”, explica o advogado. 

Nuno da Silva Vieira esclarece ainda quais os desafios que se colocam à abordagem legal desta questão, sublinhando “a dificuldade de muitos países em atualizar as leis para combater os crimes transfronteiriços, a dificuldade em localizar conteúdos manipulados e a rápida disseminação deste tipo de material através da Internet”.

O advogado salienta ainda a necessidade de sensibilização do público e de educação digital para proteger as potenciais vítimas. “É necessário que as pessoas percebam que nem tudo o que está na Internet é real. É importante que não acreditem nestes criminosos”. O especialista explica ainda que o primeiro passo a ter em conta ao receber uma ‘fake nude’ é duvidar da veracidade da imagem. “Este passo já protege a vítima”, diz o advogado com experiência em Inteligência Artificial.  

Outro passo importante, na perspetiva de Nuno da Silva Vieira, é o incentivo aos juízes para serem mais proativos e o apelo, além do apelo à criação de leis e disponibilização de ferramentas acessíveis que facilitem a rápida aplicação da lei em casos de manipulação de conteúdos. Assim, segundo o advogado, é preciso “uma formação dos juízes portugueses mais ativa, da criação de leis fáceis de aplicar e de ferramentas para que os órgãos de polícia criminal possam agir rapidamente”. 

Por outro lado, apesar do advogado destacar a necessidade urgente de uma formação mais ativa para os juízes portugueses, reconhece os desafios relacionados com a aplicação da lei em situações transfronteiriças. “Torna-se difícil rastrear conteúdo manipulado, especialmente perante a facilidade e velocidade com que a disseminação ocorre pela internet”, explica. 

Portugal está neste estado de desenvolvimento porque nos habituámos a agir apenas quando a União Europeia age”, diz Nuno da Silva Vieira, advogado com experiência em IA.

Segundo o advogado, a melhor forma de provar este argumento é “a atual ausência legal de proteção deste tipo de vítimas”. Embora a UE já esteja a desenvolver regulação da IA, para o advogado, “a parte criminal e a criação de ferramentas e equipas técnicas para proteger este tipo de vítimas fica aquém”. 

Nuno da Silva Vieira alerta para o aumento deste tipo de criminalidade, que a seu ver vai continuar a aumentar. Por fim, denota que o tema da inteligência artificial está a sensibilizar a opinião pública. “Sinto que as pessoas começam a relacionar os desafios da IA com uma certa responsabilização pelo meio”. “Entendo que todos têm consciência que a IA tem muitas preocupações associadas, relativamente aos interesses das empresas, próprios governos e pessoas, ao contrário de outras tecnologias que eram apenas vistas como positivas”. 

O sócio da Antas da Cunha ECIJA conclui, sublinhando a responsabilidade coletiva de sensibilizar a opinião pública e o imperativo dos tribunais protegerem valores fundamentais como a dignidade da pessoa humana.

Relacionados

Crime e Justiça

Mais Crime e Justiça

Patrocinados