Este banco avisa que milhões de pessoas podem ser alvo de esquemas com clonagem de voz

CNN , Anna Cooban
18 set, 19:43
Dinheiro (Pexels)

"Milhões" de pessoas podem ser vítimas de fraudes que utilizam a Inteligência Artificial (IA) para clonar as suas vozes, alertou um banco britânico.

O Starling Bank, um banco de crédito apenas em linha, afirmou que os burlões são capazes de utilizar a IA para reproduzir a voz de uma alguém a partir de apenas três segundos de áudio encontrados, por exemplo, num vídeo que a pessoa publicou em linha. Os burlões podem então identificar os amigos e familiares da pessoa e utilizar a voz clonada pela IA para encenar uma chamada telefónica para pedir dinheiro.

Estes tipos de burlas têm o potencial de “apanhar milhões de pessoas”, afirma o Starling Bank num comunicado de imprensa divulgado esta quarta-feira.

Já afetaram centenas de pessoas. De acordo com uma pesquisa com mais de três mil adultos que o banco realizou com a Mortar Research no mês passado, mais de um quarto dos entrevistados disse ter sido alvo de um golpe de clonagem de voz de IA nos últimos 12 meses.

O inquérito também revelou que 46% dos inquiridos não sabiam da existência deste tipo de burla e que 8% enviariam o montante solicitado por um amigo ou familiar, mesmo que a chamada lhes parecesse estranha.

“As pessoas publicam regularmente conteúdos online que contêm gravações da sua voz, sem nunca imaginarem que isso as torna mais vulneráveis aos burlões”, refere Lisa Grahame, diretora de segurança da informação do Starling Bank, no comunicado de imprensa.

O banco está a encorajar as pessoas a acordarem uma “frase segura” com os seus entes queridos - uma frase simples e aleatória que seja fácil de lembrar e diferente das suas outras palavras-passe - que possa ser utilizada para verificar a sua identidade por telefone.

O credor desaconselha a partilha da frase de segurança por texto, o que poderia facilitar a descoberta por parte de burlões, mas, se for partilhada desta forma, a mensagem deve ser apagada assim que a outra pessoa a tiver visto.

À medida que a IA se torna cada vez mais hábil a imitar vozes humanas, aumentam as preocupações sobre o seu potencial para prejudicar as pessoas, por exemplo, ajudando os criminosos a aceder às suas contas bancárias e a espalhar desinformação.

No início deste ano, a OpenAI, fabricante do chatbot de IA generativa ChatGPT, revelou a sua ferramenta de replicação de voz, Voice Engine, mas não a disponibilizou ao público nessa fase, citando o “potencial de utilização indevida de voz sintética”.

Dinheiro

Mais Dinheiro

Mais Lidas

Patrocinados