Saiba tudo sobre o Euro aqui

Fotos de crianças brasileiras usadas indevidamente por ferramentas de Inteligência Artificial

Agência Lusa , MM
10 jun, 15:29
Inteligência Artificial (Getty Images)

Human Rights Watch denuncia que as fotografias são retiradas da rede mundial de computadores e inseridas num grande conjunto de dados que as empresas usam para treinar as suas ferramentas de IA

Fotografias de crianças e adolescentes brasileiros estão a ser usadas para criar poderosas ferramentas de inteligência artificial (IA) sem o conhecimento ou consentimento dos visados, denunciou esta segunda-feira, em comunicado, a Human Rights Watch (HRW).

A organização que trabalha em defesa dos direitos humanos afirmou que as fotos são retiradas da rede mundial de computadores e inseridas num grande conjunto de dados que as empresas usam para treinar as suas ferramentas de IA.

“Crianças e adolescentes não deveriam ter que viver com medo de que suas fotos possam ser roubadas e usadas contra eles (…) O Governo deveria adotar urgentemente políticas para proteger os dados das crianças contra o uso indevido impulsionado por IA”, afirmou Hye Jung Han, investigadora de direitos da criança e tecnologia da HRW.

A HRW relatou ter descoberto que o LAION-5B, um conjunto de dados usado para treinar ferramentas populares de IA e construído a partir da raspagem de grande parte da Internet, contém links para fotos identificáveis de crianças brasileiras.

Os nomes de algumas crianças estão listados nas respetivas legendas ou na URL onde a imagem está armazenada. Em muitos casos, as suas identidades são facilmente rastreáveis, incluindo informações sobre quando e onde a criança estava no momento que a foto foi tirada.

“A HRW encontrou 170 fotos de crianças de pelo menos 10 estados: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo. É provável que essa seja uma subestimação significativa da quantidade total de dados pessoais de crianças existentes no LAION-5B, uma vez que analisou menos de 0,0001% dos 5,85 mil milhões de imagens e legendas contidas no conjunto de dados”, destacou.

A investigação detetou que muitas dessas fotos foram vistas originalmente por poucas pessoas e parece que tinham alguma medida de privacidade anteriormente. Não parece ser possível encontrá-las por meio de uma pesquisa ‘on-line’.

E, portanto, quando os dados são coletados e inseridos em sistemas de IA, essas crianças enfrentam mais ameaças à sua privacidade devido a falhas na tecnologia.

“Os modelos de IA, inclusive aqueles treinados no LAION-5B, são notórios por tornar pública informações privadas; eles podem reproduzir cópias idênticas do material no qual foram treinados, inclusive registos médicos e fotos de pessoas reais. As barreiras de proteção estabelecidas por algumas empresas para evitar a divulgação pública de dados confidenciais têm sido repetidamente quebradas”, apontou a HRW.

“Atores mal-intencionados usam ferramentas de IA treinadas pelo LAION para gerar imagens explícitas de crianças a partir de fotos inofensivas, bem como imagens explícitas de crianças sobreviventes cujas imagens de abuso sexual foram raspadas para o LAION-5B”, acrescentou.

Em resposta à HRW, a LAION, organização alemã sem fins lucrativos que gere o LAION-5B, confirmou que o conjunto de dados continha as fotos pessoais das crianças encontradas e comprometeu-se a removê-las.

A organização alemã contestou que os modelos de IA treinados no LAION-5B pudessem reproduzir dados pessoais literalmente. A LAION também disse que as crianças e seus progenitores são responsáveis por remover as suas fotos pessoais da Internet, argumentando ser a proteção mais eficaz contra o uso indevido.

A HRW salientou que os legisladores brasileiros precisam propor a proibição do uso não consensual de IA para gerar imagens sexualmente explícitas de pessoas, inclusive crianças.

“Esses esforços são urgentes e importantes, mas abordam apenas um sintoma de um problema mais profundo: o facto de que os dados pessoais de crianças permanecem em grande parte desprotegidos contra o uso indevido. Da forma como está redigida, a Lei Geral de Proteção de Dados Pessoais do Brasil não oferece proteção suficiente para as crianças”, afirmou a HRW.

A organização defendeu que o Governo brasileiro precisa fortalecer a lei de proteção de dados, adotando salvaguardas adicionais e abrangentes para a privacidade dos dados das crianças e lembrou que, em abril, o Conselho Nacional dos Direitos da Criança e do Adolescente (CONANDA) do Brasil publicou uma resolução pedindo que o Conselho e o Ministério dos Direitos Humanos e Cidadania desenvolvam uma política nacional para proteger os direitos das crianças e dos adolescentes no ambiente digital no prazo de 90 dias.

“A nova política deveria proibir a raspagem de dados pessoais de crianças para sistemas de IA considerando os riscos de privacidade envolvidos e o potencial de novas formas de uso indevido à medida que a tecnologia evolui”, frisou a HRW.

“A IA generativa ainda é uma tecnologia incipiente, e os danos associados que as crianças já estão enfrentando não são inevitáveis (…)Proteger agora a privacidade dos dados de crianças ajudará a moldar o desenvolvimento dessa tecnologia para uma que promova, em vez de violar, os direitos das crianças”, concluiu Hye Jung Han, da HRW.

Brasil

Mais Brasil

Patrocinados