"Saí do X porque estava muito cansado de ver vídeos de imigrantes a assaltar pessoas"

17 nov, 07:00
Adolfo Mesquita Nunes (Pérez-Llorca)

ENTREVISTA || Pensamos que controlamos a tecnologia. Mas, na verdade, são os algoritmos que decidem o que vemos, sentimos e acreditamos. “Estamos a dar autoridade, um poder enorme, a quem não conhecemos”. É este o ponto de partida para uma conversa com Adolfo Mesquita Nunes sobre o seu novo livro “Algoritmocracia – Como a IA está a transformar as nossas democracias”

Num mundo de perceções e de uma verdade que deixa de funcionar como “cimento social” cria-se o terreno perfeito para os populismos. “Há muita gente convencida de que não vive numa bolha porque está permanentemente a ver conteúdo de partidos que não gosta nas suas redes”. Adolfo Mesquita Nunes, ex-dirigente do CDS-PP, ganhou a certeza de que “não basta resolver os problemas das pessoas para que os populistas não ganhem votos”. Insiste na necessidade de regular os algoritmos, mesmo sabendo que nunca os vamos conseguir compreender na totalidade. Enquanto advogado, tem trabalhado com empresas em matéria de políticas de inteligência artificial. “É ingénuo pensar que os algoritmos não serão a causa de novas guerras”, avisa.

A primeira pergunta desta entrevista não foi feita por mim, é do ChatGPT: “Se eu não tenho vontade própria, de quem é realmente o poder? É de quem me cria, de quem me usa, ou é meu?”.

É um bom começo de conversa. No livro “Algoritmocracia – Como a IA está a transformar as nossas democracias” identifico esses modelos de linguagem natural como a primeira porta de entrada para o conhecimento para muita gente. Procuro explicar que esses modelos não têm qualquer noção do que é verdadeiro ou falso, nem consciência ética – nem têm de ter. O erro não está em utilizá-los como auxiliares, mas ver neles uma espécie de oráculo. Isso faz com que muita gente pense que não é responsável pelos conteúdos que ali são gerados.

Então diria que o verdadeiro poder está naqueles que souberem dominar o sistema?

Como qualquer ferramenta, qualquer tecnologia, os fabricantes também terão a sua parte de responsabilidade. Não nos ocorre que, havendo o defeito no fabrico de um carro, que não responsabilizemos os construtores pelo defeito ou pelos prejuízos que causou.

E não é isso que tem acontecido…

Vejamos os casos recentes de suicídio motivados por conversas com o ChatGPT: as plataformas têm vindo a dizer que vão melhorar, que vão impedir que volte a acontecer. Isso é praticamente impossível. Podem programar o algoritmo para não responder a determinado tipo de solicitações. Contudo, o contexto das conversas e aquilo que cada um de nós retira delas é infinito. Nunca será possível determinar quando é que uma conversa está a ser mesmo sobre um suicídio. Isto mostra que muitas das consequências destas conversas não são necessariamente desejadas, planeadas ou pensadas pelas plataformas - o que não significa que não tenham de ser responsabilizadas.

O livro é composto por dezenas de perguntas. Vieram também das conversas que foi tendo com pessoas à sua volta sobre este tema?

O propósito do livro é mostrar que temos um problema. Sinto que a maior parte das pessoas com quem converso não sente que isto seja um problema. O livro está em formato pergunta-resposta porque imagina um leitor que não concorda comigo a dar os passos necessários para perceber que temos um problema.

E a tecnologia também o ajudou a escrever o livro?

Sim, utilizei muito o ChatGPT para testar argumentos, para pedir que contra-argumentasse, que me sugerisse respostas ou dúvidas. Foi um auxiliar importante.

Diria que esta mudança em curso, com os algoritmos e a inteligência artificial, é a transformação dos nossos tempos? Ou ainda não temos sequer consciência da verdadeira dimensão deste fenómeno?

Para escrever este livro procurei perceber como é que esses conteúdos me apareciam no meu telemóvel. Como é que são escolhidos? Quem os escolhe? Porque é que tenho uns e o Wilson tem outros? Parece-me impossível que esta escolha não condicione o nosso processo de formação de opinião sobre o mundo, sobre a realidade. É como um GPS. Se todos os dias me leva pelas ruas mais vibrantes da cidade, vou concluir que é uma cidade dinâmica. Se o seu GPS o manda pelas ruas mais sombrias, terá uma visão diferente da mesma cidade.

Mas enquanto sociedade sempre tivemos esses GPS…

É verdade. Havia enciclopédias, professores, jornalistas, que nos enquadravam. Essas pessoas tinham um rosto, podíamos discordar delas, perguntar-lhes os critérios, comprar outro jornal. Mas se eu quiser saber porque é que o algoritmo me colocou determinado vídeo, não tenho a quem fazer essa pergunta. Não vou ter respostas. Estamos a dar autoridade, um poder enorme, a quem não conhecemos.

Por onde devíamos estar a ir?

Insisto no livro que temos de reclamar o poder de poder personalizar os algoritmos que todos os dias condicionam a informação que nos é servida. Quero poder pedir conteúdo sensato. Há muita gente convencida de que não vive numa bolha, porque está permanentemente a ver conteúdo de partidos que não gosta nas suas redes. Só que aquilo que lhe aparece é o conteúdo mais radical.

Em resumo, temos de perceber como é que funcionam os algoritmos.

Exato. Não digo que os algoritmos estão manipulados para nos condicionar. Esse é um efeito, não o objetivo. O objetivo é simples: aprender o máximo possível, sobre nós, sobre o nosso contexto, para oferecer-nos experiências que nos mantenham o máximo de tempo possível agarrados ao telemóvel. Vivemos na economia da atenção: mais tempo agarrados ao telemóvel, mais negócios feitos.

E o que é que nos agarra mais?

É uma triste constatação: conteúdos que nos parecem estranhos, que nos metem medo, que nos fazem sentir revoltados, que nos indignam. Se vejo um vídeo sobre assaltos à mão armada e a seguir carrego numa notícia sobre o mesmo tema, o algoritmo percebe que esse conteúdo me interessa. E vai dar-me mais do mesmo, mesmo sem saber se é violência, imigração, ideologia de género.

Novo livro traz profunda reflexão sobre o tema (D. Quixote)

Mas a verdade é que estamos a organizar o nosso quotidiano e o próprio debate público com base nesses algoritmos.

Não são só os políticos que querem aparecer. Os jornalistas e comentadores também. Temos todo um ecossistema de deliberação política condicionado pelos algoritmos, a adaptar-se a eles, para que a mensagem possa passar. Não é surpresa que a nossa sociedade, a nossa cultura política, o nosso debate político esteja mais bélico, mais conflitual.

E muitas vezes assente em “perceções”…

Todos temos e sempre tivemos perceções que não correspondem necessariamente à realidade. Elas, tipicamente, vinham de alguma experiência vivida. A nossa experiência fazia-nos – eventualmente, desproporcionalmente – estar mais atentos a certos problemas. O que se coloca agora é que esta perceção pode existir sem que tenhamos tido qualquer experiência direta. Mas, sim, porque os vídeos nos dão a sensação de que essa experiência está a ser vivida por toda a gente, menos por nós. “É uma sorte que ainda não nos tenha acontecido, mas vai acontecer amanhã”, dirão alguns.

E qual é o grande problema das perceções?

O político, para falar para o seu eleitorado, tem de responder às perceções. Mas se elas forem falsas, se não tiverem adesão à realidade, corremos o risco de definir políticas públicas erradas, desviadas do essencial. É uma aprendizagem nova que o ecossistema político, mas também o mediático, tem de fazer: como equilibrar a necessidade de responder àquilo que a população sente e continuar a fazer políticas públicas que resolvam problemas reais. Permita-me fazer uma ressalva interessante: posso resolver o problema que a perceção refere e, ainda assim, por causa dos algoritmos e dos vídeos, as pessoas não deixarem de sentir que o problema continua a existir.

Costuma-se dizer que o combate aos populismos passa pela resolução dos problemas das pessoas…

A minha provocação é esta: e se, por conta dos algoritmos, a resolução de um problema continuar a não significar nada do ponto de vista das perceções? E se as pessoas continuarem com a perceção de que o problema está lá? É por isso que tendo a achar que não basta resolver os problemas das pessoas para que os populistas não ganhem votos.

É um problema particularmente relevante para Portugal, dados os nossos níveis historicamente baixos de literacia política e económica?

Não é um problema português, é um problema da civilização ocidental, que está mais exposta às redes sociais. Tem a ver com o ecossistema algorítmico. É por isso que tento chamar a atenção para este momento que estamos a viver: conflitual, bélico, maniqueísta, binário, polarizador. Não é uma fase. É o resultado de um sistema que, se não for de alguma forma pensado e lido a esta luz, vai continuar a intensificar-se. Basta ver como em muito pouco tempo o debate e o discurso político em Portugal, e noutros países, se degradou de uma forma extraordinária, sem consequências do ponto de vista eleitoral. Os algoritmos favorecem a mentira, o choque, o escândalo, o ressentimento. Involuntariamente, mas favorecem. O populismo não precisa de ganhar eleições para contaminar o debate e o discurso político.

E Portugal confirma esse cenário?

Sim. A quantidade de ‘bots’, de vídeos falsos, de esforço empreendido pelos partidos nas redes sociais é completamente desigual. A aposta do Chega é totalmente distinta - e isso ajuda a explicar muita coisa. Há na estrutura algorítmica o espaço ideal para o discurso populista. Por isso é que defendo, no livro, que os moderados são os novos apátridas.

E porque é que a moderação está a perder terreno?

Porque o algoritmo não a acha sexy. Porque os eleitores, os cidadãos, também não clicam. E por isso um discurso moderado não tem a mesma viralidade. Como vencemos isto? Além das propostas que faço de regulação dos algoritmos, os moderados – onde me incluo – terão de encontrar forma de transformar o discurso pela positiva. Torná-lo tão sexy quanto o discurso da descontextualização e da falsificação. Não é algo simples nem fácil, porque o discurso sensato tem uma fronteira muito relevante: a realidade. O discurso dos populistas não tem fronteira nenhuma. Quando não há fronteiras, é-se muito mais criativo.

Inteligência Artificial está a mudar a nossa relação com a tecnologia (Imagem criada por IA)

O que temos percebido é que, para os eleitores, a mentira hoje parece ultrapassável. Há desmentidos e desconstruções, mas não são eficazes.

Primeiro, não é líquido que o desmentido lá chegue ou que tenha o mesmo poder de persuasão para passar a fronteira dos algoritmos. Depois, parte do discurso dos populistas tenta livrar-se de todas as instituições que estão pelo meio. A ciência, o conhecimento, o jornalismo. E, por isso, o discurso anti jornalistas faz com que o desmentido, vindo de órgãos de comunicação social, apareça como mais uma prova do discurso que o populista faz.

E porque é que há políticos que beneficiam tanto da mentira?

Quando deixamos de saber o que é verdade e o que é mentira, por força do discurso populista, deixamos de acreditar na ciência, nos parlamentos, nos tribunais e nos jornalistas. A nossa perceção do que é verdade passa a estar dependente dos nossos instintos, das nossas emoções e do líder carismático que temos. Tendemos a acreditar na ausência de referências, que a nossa referência é aquele líder. Além disso, quando o eleitorado percebe os políticos como sendo radicalmente contra o sistema, estes têm uma maior capacidade de poder mentir impunemente. O eleitorado parece, até ao momento, não os penalizar em excesso. A minha interpretação é de que o eleitorado partilha uma grande dose de ressentimento contra o sistema, não se incomodando que haja mentiras, desde que as mentiras sejam para destruir esse sistema. Há uma enorme tolerância para com aqueles que estão, no fundo, a mentir em nome de algo maior, que é destruir o sistema.

Falávamos há pouco na ideia de conflito. Temos guerras a decorrer em vários pontos do mundo, com destaque para a situação na Ucrânia e na Palestina. A inteligência artificial nos campos de batalha é o próximo passo?

Ela já está nos campos de batalha, nos drones, no planeamento das operações militares, na espionagem. Ainda não estamos num momento em que as guerras são travadas por humanoides, por robôs, mas a inteligência artificial está lá, como em qualquer outra área. Os estados têm cada vez mais a necessidade de robustecer as suas defesas face a possíveis ataques com recurso à inteligência artificial. Veja-se que potências estrangeiras podem manipular o ambiente em que vão decorrer umas eleições.

E poderá o controlo dos algoritmos ser a causa para novas guerras?

É ingénuo pensar que os algoritmos não serão a causa de novas guerras. Quando há poder, um ativo, um recurso muito valioso, há sempre a vontade de o ter – ou de ser o único ou o mais rápido a tê-lo.

As guerras têm servido para uma dúvida constante do que é verdade. Duvida-se que haja fome em Gaza, duvida-se que a Ucrânia tenha recuperado territórios. É esse o verdadeiro risco de toda a tecnologia?

É por aí que começa o livro. A verdade partilhada é um cimento social. O risco já não é que não acreditemos em tudo o que nos aparece. O risco é já não acreditarmos em nada, com medo de que seja mentira. Já todos sabemos que, se recebermos uma mensagem do nosso filho, a pedir para transferir dinheiro, porque está numa emergência, que aquilo é uma burla. Mas, com o avançar da tecnologia, vamos começar a receber telefonemas com a voz do nosso filho a dizer-nos exatamente a mesma coisa. E o que faz um pai quando recebe essa chamada à duas da manhã? Vira-se para o lado, ri e diz ‘mais um que me quis enganar’. E se for mesmo o filho?

IA poderá estar na origem de novos conflitos, admite Adolfo Mesquita Nunes (CNN)

Já defendeu várias vezes que o caminho passa pela regulação. É realmente possível regular um algoritmo que não se compreende na totalidade, nem mesmo quem o criou?

É um desafio enorme, sei disso. Quando os desafios são muito grandes e muito complexos, tendo a agarrar-me aos meus valores principais para tentar perceber como posso organizar soluções com base neles. O meu valor principal é a liberdade individual. Por isso, quero ter a liberdade de poder personalizar os algoritmos que lidam comigo. Não tenho qualquer poder sobre eles. A única escolha que tenho é entre estar ou não nas redes sociais. Isso é uma falsa escolha.

Mas diria que andamos todos tão alienados com a tecnologia – a fazer perguntas, a pedir imagens de gatinhos ou receitas– que não percebemos a dimensão do problema?

Estamos claramente a perceber as vantagens. Estamos a ser mais lentos a avaliar os riscos e as consequências. Temos de admitir que somos muito mais influenciados, e influenciáveis, do que costumamos pensar. Eu, por exemplo, tinha uma atividade bastante intensa no X [antigo Twitter], de onde saí.

Porquê?

Saí do X [antigo Twitter] porque estava muito cansado de ver vídeos de imigrantes a assaltar pessoas. Essa permanente exposição a esses conteúdos estava a influenciar-me.

Mas como explicaria que esses conteúdos, em específico, estivessem a aparecer-lhe a si?

Posso teorizar, mas não sei. Ninguém me diz como é que os algoritmos funcionam. Podemos dizer que, se eu não clicar em nenhum conteúdo anti-imigração, não vai aparecer conteúdo desse tipo. Mas isso é entender que os algoritmos têm regras muito simples. Os algoritmos fazem correlações mais sofisticadas. O facto de eu não saber porque é que aquilo me aparecia, e não havendo quem explicasse, fez com que a única alternativa fosse sair do X.

E depois desta pesquisa a fundo, percebendo melhor a lógica dos algoritmos, voltaria agora ao X?

Não volto. Tinha conversas muito interessantes lá, mas essas conversas deixaram de ser possíveis. Basta pensarmos que, mesmo em famílias que estavam habituadas a discutir política, isso deixou de ser assunto. Temos medo de abrir uma caixa de Pandora. Mostra bem como a sociedade está a ficar com clivagens cada vez maiores.

É público que é fã da Eurovisão. Para fechar a conversa, aproveito esse festival para uma reflexão sobre a produção artística. Ficaria chocado se uma canção feita por inteligência artificial chegasse à Eurovisão? Onde fica a autoria?

A arte tem sido uma forma de expressão de sentimentos, de emoções, de angústias, de desconforto, de desconcerto com o mundo. Perturba-me que deixe de ser assim. Que tenhamos obras que, apesar de serem agradáveis, não tenham nenhuma leitura do mundo.

Tecnologia

Mais Tecnologia