Robôs racistas e sexistas? Sim. O algoritmo pode ser tendencioso

22 jul, 22:35
Robô (Pexels)

Cientistas norte-americanos mostram que falhas na inteligência artificial e algoritmos criados por grandes conjuntos de dados online podem tornar os robôs racistas e sexistas

Os homens negros são criminosos e as mulheres são domésticas. Estas foram as associações feitas por robôs virtuais cujo sistema de inteligência artificial foi criado por grandes conjuntos de dados online. 

Este é o resultado de uma experiência levada a cabo pelas universidades John Hopkins e de Washington e pelo o Instituto de Tecnologia da Geórgia e que se baseou numa simples tarefa: os robôs tinham de analisar um rosto e colocá-lo numa categoria.

Mas são todos os robôs assim preconceituosos? Não necessariamente, e esta é a principal conclusão do estudo, que foi apresentado há semanas na Conferência sobre Justiça, Responsabilidade e Transparência. Os cientistas acreditam que um robô pode tornar-se racista e sexista sem que tenha sido programado para tal, basta apenas que o sistema ou algoritmo de inteligência artificial que usa seja construído com modelos de redes neurais onde existe este tipo de comportamentos, que é o que acontece quando são criados por grandes conjuntos de dados online ou datasets públicos (bases de dados gratuitas), onde há, literalmente, de tudo e que tornam o sistema de inteligência artificial tendencioso.

Durante a experiência, os robôs colocaram na categoria de criminosos 10 vezes mais homens negros do que brancos e associaram ainda de forma recorrente as pessoas de origem latina a profissões associadas com serviços de limpeza de espaços. As mulheres foram pouco ou nada selecionadas quando em causa estava a procura por ‘médico(a)’ no desafio.

“Corremos o risco de criar uma geração de robôs racistas e sexistas, mas as pessoas e as organizações decidiram que não há problema em criar esses produtos sem abordar os problemas”, lamentou Andrew Hundt, um dos autores do estudo.

Além do risco que estes robôs com  redes neurais em que há preconceito poderem ser facilmente criados em casa através de conjuntos de dados que há gratuitamente online, os cientistas alertam ainda para o impacto que podem ter na indústria. E dão um exemplo concreto: “Num armazém, onde há muitos produtos com modelos na caixa, podemos imaginar o robô a pegar em produtos com rostos brancos com mais frequência”, disse a coautora Vicky Zeng.

Mas esta não é a primeira vez que um robô com sistema de inteligência artificial se mostra preconceituoso ou eco de informações falsas. Em 2016, um robô da Microsoft exposto à Internet precisou de apenas um dia para se tornar racista e negacionista. Tay, perfil de inteligência artificial criado pela gigante tecnológica, proferiu declarações polémicas - colocando, por exemplo, em causa o Holocausto - no Twitter após a interação com outros utilizadores, conta o site da Veja.

Relacionados

Ciência

Mais Ciência

Patrocinados