Os algoritmos estão em todo o lado. Eis porque se deve preocupar

CNN , Rachel Metz
6 jan 2022, 23:57
O edifício da Netflix na Sunset Boulevard fotografado a 20 de outubro de 2021, em Los Angeles.

Sempre que pega no seu smartphone, está a invocar algoritmos. São usados para tudo, desde desbloquear o telefone com a cara a decidir que vídeos vê no TikTok ou atualizar o seu percurso no Google Maps para evitar um acidente na autoestrada a caminho do trabalho.

Um algoritmo é um conjunto de regras ou passos a seguir, frequentemente por um computador, para produzir um resultado. E os algoritmos não existem apenas nos telefones, são usados em todos os tipos de processos, online ou não. Tanto ajudam a avaliar a sua casa como ensinam o seu robô aspirador a evitar o cocó do cão. Ao longo dos anos, têm-lhes cada vez mais sido confiadas decisões determinantes na vida, como ajudar a decidir quem deve ser preso, quem deve ser libertado da cadeia antes de uma audiência em tribunal, e quem tem aprovação para um crédito hipotecário.

Nas últimas semanas, os algoritmos têm estado sob um renovado escrutínio, sobretudo pela maneira como as empresas tecnológicas devem mudar as maneiras como os usam. Isto surge por um lado das preocupações levantadas nas audiências com a denunciante da Facebook, Frances Haugen, e também pela legislação bipartidária apresentada pela Câmara dos Representantes (tinha sido anteriormente reapresentado um projeto lei complementar no Senado). A legislação obrigaria as grandes empresas tecnológicas a permitirem que os utilizadores acedessem a uma versão das suas plataformas onde o que vissem não fosse definido pelos algoritmos. Estes desenvolvimentos destacam o aumento da consciência sobre o papel central que os algoritmos têm na nossa sociedade.

Foi fascinante ver como o Roomba mapeou uma sala, decidiu um padrão e depois lidou com todos os obstáculos: evitou tigelas com comida para gatos, serpenteou pelas pernas das cadeiras e libertou-se de debaixo do armário da sala de jantar a 3 de janeiro de 2019.

 

"Neste momento, eles são responsáveis por tomar decisões sobre praticamente todos os aspetos das nossas vidas", disse Chris Gilliard, investigador visitante no Centro Shorenstein de Média, Política e Política Pública da Harvard Kennedy School.

Porém, a maneira como os algoritmos trabalham e as conclusões a que chegam são algo misterioso, sobretudo porque a utilização de técnicas de inteligência artificial os torna cada vez mais complexos. Os resultados nem sempre são compreendidos nem corretos, e as consequências podem ser desastrosas. Mas continua incerto qual é o impacto que qualquer possível legislação nova possa ter para limitar a influência dos algoritmos nas nossas vidas.

Explicar os algoritmos

Na sua essência, um algoritmo é uma série de instruções. Conforme nos indicou Sasha Luccioni, cientista investigadora da equipa de ética da IA na Hugging Face, uma criadora de modelos de IA, podem ter uma programação fechada, com indicações fixas para um computador seguir, como colocar uma lista de nomes por ordem alfabética. Há décadas que são usados algoritmos simples para a tomada de decisões baseada em computadores.

Hoje em dia, os algoritmos ajudam permanentemente a facilitar processos que de outra maneira seriam complexos, quer saibamos ou não disso. Quando indicamos a um website de roupa para filtrar os pijamas para vermos as opções mais populares ou menos caras, estamos a usar um algoritmo para basicamente dizer, "Old Navy, faz o que é preciso para me mostrares os pijamas mais baratos."

Todos os tipos de coisas podem ser algoritmos, e não são exclusivos dos computadores. Uma receita, por exemplo, é um tipo de algoritmo, tal como a rotina ensonada dos dias de semana que fazemos antes de sairmos de casa.

"Usamos os nossos próprios algoritmos pessoais todos os dias", diz Jevan Hutson, que estudou a IA e a vigilância e é advogado de privacidade de dados e segurança na sociedade Hintze Law, em Seattle.

Mas enquanto podemos questionar as nossas decisões, as que são tomadas por máquinas têm vindo a tornar-se cada vez mais enigmáticas. Isso deve-se ao crescimento de uma forma de IA conhecida como deep learning, ou aprendizagem profunda, que é modelada pela maneira como os neurónios do cérebro funcionam e que ganhou destaque há cerca de uma década.

Um algoritmo de aprendizagem profunda pode encarregar um computador de ver milhares de vídeos de gatos, por exemplo, para aprender a identificar como é um gato. (Foi significativo quando a Google aprendeu a fazer isto de forma fiável em 2021.) O resultado deste processo de devorar dados e melhorar com o tempo seria, na sua essência, um processo informático para como o computador pode identificar se há um gato em quaisquer imagens novas que veja. Isto é habitualmente conhecido como modelo (apesar de por vezes também ser referido como algoritmo).

Estes modelos podem ser incrivelmente complexos. Facebook, Instagram e Twitter usam-nos para ajudar a personalizar os feeds dos utilizadores com base nos interesses de cada pessoa e na sua atividade anterior. Os modelos também podem ser usados em montanhas de dados reunidos durante muitos anos e que um humano não conseguiria analisar. A Zillow, por exemplo, usa desde 2006 o “Zestimate”, o seu sistema com marca registada assistido por aprendizagem de máquina para calcular o valor de casas, tendo em consideração os registos de impostos e imobiliário e pormenores apresentados pelos proprietários como o acrescento de uma casa de banho e fotos da casa.

Os riscos de depender de algoritmos

No entanto, como o caso da Zillow nos mostrou, descartar a tomada de decisões nos sistemas algorítmicos também pode correr mal de maneiras dolorosas e nem sempre é claro porquê.

A Zillow decidiu recentemente pôr fim ao seu negócio de venda de casas, a Zillow Offers, o que mostrou a grande dificuldade de usar IA para avaliar imobiliário. Em fevereiro, a empresa tinha dito que o seu "Zestimate" iria representar uma proposta inicial da empresa para comprar as propriedades através do seu negócio de venda de casas. Em novembro, a empresa fez uma redução de inventário de 304 milhões de dólares e atribuiu a culpa a ter recentemente comprado casas por valores superiores ao que pensa conseguir ao vendê-las.

Também no universo online, a Meta, a empresa outrora conhecida como Facebook, ficou na mira por alterar os seus algoritmos de maneira a ajudar a incentivar conteúdos mais negativos na maior rede social do mundo.

Os algoritmos também já tiveram consequências que mudam vidas, particularmente ao serviço da polícia. Sabemos, por exemplo, que vários negros foram indevidamente detidos devido à utilização de sistemas de reconhecimento facial.

Habitualmente, as empresas tecnológicas dão explicações básicas sobre como os seus sistemas algorítmicos funcionam e o fim para que são usados. Para além disso, os especialistas em tecnologia e direito tecnológico disseram à CNN Business que mesmo quem constrói esses sistemas nem sempre sabe porque chegam às suas conclusões – é uma das razões pelas quais muitas vezes são referidos como “caixas negras”.

“Os cientistas informáticos e os cientistas de dados, neste momento, parecem ser feiticeiros para muitas pessoas porque não compreendemos o que fazem, “ disse Gilliard. “E nós pensamos que eles compreendem, mas nem sempre é assim.”

Rebentar a bolha dos filtros

Os Estados Unidos da América não têm regras federais sobre como as empresas podem ou não usar os algoritmos de forma geral, ou os que contêm IA em particular. Alguns estados promulgaram as suas próprias regras que são geralmente mais centradas no software de reconhecimento facial ou biométrico.

Mas o Congresso está atualmente a estudar legislação como a chamada “Lei da Transparência da Bolha dos Filtros” que, se for aprovada, obrigará as grandes empresas da internet, como Google, Meta, TikTok e outras a “darem aos utilizadores a opção de usarem plataforma sem serem manipulados por algoritmos alimentados por dados específicos do utilizador”.

 

O edifício da Netflix na Sunset Boulevard fotografado a 20 de outubro de 2021, em Los Angeles.

 

Num recente artigo de opinião para a CNN, o senador republicano John Thune descreveu a legislação de que é copatrocinador como “um projeto lei que essencialmente iria criar um interruptor para os algoritmos secretos das grandes tecnológicas – a inteligência artificial (IA) que é criada para moldar e manipular as experiências dos utilizadores – dando aos consumidores a escolha de o ligarem ou desligarem”.

A Facebook, por exemplo, já tem isto, apesar de os utilizadores serem desincentivados a ligar o suposto interruptor de forma permanente. Um bem escondido botão "Mais Recentes" apresenta as publicações por ordem cronológica invertida, mas o Feed de Notícias do Facebook volta ao seu estado fortemente influenciado original assim que saímos do website ou fechamos a aplicação. Em 2016, a Meta deixou de oferecer essa opção no Instagram, que também lhe pertence.

Hutson destacou que, apesar de a Lei da Transparência da Bolha dos Filtros se centrar claramente nas grandes plataformas sociais, irá inevitavelmente afetar outras como o Spotify e a Netflix que dependem profundamente de uma curadoria alimentada por algoritmos. Ele diz que, se for aprovada, a lei irá “mudar fundamentalmente” o modelo de negócio de empresas construídas inteiramente ao redor da curadoria algorítmica – uma funcionalidade que muitos utilizadores apreciam em determinados conceitos, supõe ele.

“Isto vai ter impacto em organizações muito além das que estão na mira”, disse ele.

Os especialistas em IA argumentam que é crucial haver mais transparência por parte das empresas que fazem e usam algoritmos. Luccioni acredita que as leis de transparência dos algoritmos são necessárias antes de poderem ser reguladas utilizações e aplicações específicas da IA.

“Vejo as coisas a mudar, sem dúvida, mas há um fosso frustrante entre aquilo de que a IA é capaz e aquilo para o qual há legislação”, disse Luccioni.

Tecnologia

Mais Tecnologia

Patrocinados