O novo Q* representa um risco para a humanidade? Sim. Mas também há coisas boas na inteligência artificial: "Vai permitir-nos arranjar novas soluções para resolver os problemas do mundo"

26 nov 2023, 22:00
Robô (GettyImages)

Os sistemas estão a tornar-se cada vez mais inteligentes, mas enquanto dependerem da iniciativa humana o risco está controlado, dizem os especialistas ouvidos pela CNN Portugal: "O desenvolvimento é inevitável"

A evolução da inteligência artificial (IA) traz consigo muitos perigos, mas a humanidade não está em risco, pelo menos para já - esta é a convicção de dois especialistas ouvidos pela CNN Portugal ao tomarem conhecimento do projeto Q* (pronuncia-se Q-Star), desenvolvido pela OpenAI e que, segundo algumas fontes, pode ser um grande passo naquilo que é conhecido como inteligência artificial geral.

"Acho que a humanidade está em risco por muitos motivos, mas neste momento estou mais preocupado com uma guerra mundial e mesmo com o aquecimento global, do que com a hipótese de a inteligência artificial tomar conta do mundo", afirma o especialista em robótica Luís Paulo Reis, professor no departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

A inteligência artificial geral é a capacidade de criação de "sistemas que são tão flexíveis e tão maleáveis que podem resolver problemas tão diversos e tão complexos como a inteligência humana", explica Arlindo Oliveira, professor do Instituto Superior Técnico, acrescentando, sem hesitar: "Estamos ainda muito longe. Não vamos ter sistemas equiparados à inteligência humana tão cedo. Estes sistemas não são tão inteligentes quanto parecem."

De acordo com as informações divulgadas, com acesso a um vasto leque de recursos computacionais, o Q* conseguiu resolver certos problemas matemáticos. Apesar de estas terem sido resoluções do nível do ensino primário, deixou os investigadores muito otimistas perante o futuro sucesso do projeto. Até agora, a IA generativa é capaz de escrever e traduzir textos graças a modelos probabilísticos. Contudo, a capacidade de dominar a matemática, área em que só existe uma resposta certa na maioria dos casos, implica que o sistema artificial tenha capacidades de raciocínio mais semelhantes às do cérebro humano e será isso mesmo que terá sido alcançado pelo projeto Q*.

Arlindo Oliveira, que é também investigador do INESC, Instituto de Engenharia de Sistemas e Computadores, acredita que muitas destas notícias são exageradas e sublinha que, apesar de só agora se ter tornado noticia, esta tecnologia está a ser desenvolvida desde 2017. "Estes sistemas de linguagem já estão cá há anos. O GPT3 saiu em 2020 e ninguém ligou nenhuma e, de repente, este ano, tornou-se viral", conta. "A maior parte destas notícias refere-se a evoluções que são muito mais pequenas do que parecem. Tal como o Q*, existem muitas outras propostas destas que estão a ser desenvolvidas, mas ainda estamos muito longe da inteligência artificial geral", defende.

Luís Paulo Reis, que além de professor é diretor do LIACC – Laboratório de Inteligência Artificial e Ciências de Computadores e presidente da Associação Portuguesa Para a Inteligência Artificial, também não ficou surpreendido com esta notícia sobre o Q*: "Sabíamos que a OpenAI estava a tentar criar um sistema com alguma capacidade de raciocínio matemático e de resolver problemas complexos. E, pelos vistos, estão a conseguir algo que, há algum tempo, parecia complicado. Aparentemente, este Q* tem capacidade de resolver problemas lógicos e usá-los em aplicações reais. Ou seja, parece estar na fronteira daquilo que é inteligência artificial geral." 

Mas este especialista prefere sublinhar os enormes avanços que a inteligência artificial geral pode trazer para os humanos. "A ideia de melhoria contínua, de o sistema aprender em tempo real, com as interações e com as experiências (muito além do que faz o ChatGPT) é um avanço impressionante", diz. "Além disso, pode processar grandes volumes de dados. Tudo isto permite-lhe uma enorme versatilidade. Este sistema pode ser utilizado no domínio da saúde, finanças, artes criativas... Isto tem enormes benefícios. Permite reagir rapidamente a problemas complicados. Isso é muito interessante - fazer análises de marketing, planos de negócios, modelação climática, criar novas drogas para a saúde, tudo o que imaginarmos. Isto irá permitir-nos arranjar novas soluções para resolver os problemas do mundo."

"O desenvolvimento da IA para a inteligência artificial geral é inevitável. E também é inevitável que estes sistemas vão cada vez mais estar em robôs", afirma Luís Paulo Reis. "Daqui a poucos anos, já vamos ter robôs a fazer muitas coisas, por exemplo a cuidar das nossas crianças e dos nosso idosos, e isso será necessário devido ao envelhecimento da população." No seu ponto de vista, a questão que se põe não é se isso vai acontecer, mas quando é que vai acontecer. "Da mesma forma que o telemóvel substituiu uma série de outros instrumentos que nós tínhamos (as cartas, o telefone, a máquina calculadora, o calendário, a máquina fotográfica, o gravador de cassetes, etc.), estes produtos de IA vão substituir os instrumentos que temos hoje e teremos uma nova maneira de fazer."

Este investigador está otimista. Mas admite que este desenvolvimento "pode ser potencialmente perigoso, como todos os desenvolvimentos da IA podem ser perigosos. Como a tecnologia nuclear também pode ser perigosa. Depende dos usos que lhe dermos", afirma.

"O grande risco aqui é que os sistemas podem sair do nosso controlo, é aquilo a que se chama a singularidade tecnológica, que é quando temos uma IA que se cria a ela própria. Isso é que tem de se evitar", aponta Luís Paulo Reis.  A expressão "singularidade tecnológica" define um momento, num futuro mais ou menos próximo, em que as máquinas e sistemas inteligentes podem tornar-se tão avançados que superam a compreensão e o controlo humano e ganhar autonomia, o que levará a profundas alterações na própria civilização humana.

Arlindo Oliveira concorda. "Os sistema já fazem muitas coisas, mas fazem-no por iniciativa humana, são os humanos que dão a indicação. E é isso que está por trás do medo. Se passarem a ter a sua própria motivação, tornam-se perigosos", alerta.

De qualquer forma, a solução não pode passar por tentar parar a investigação. "Isso será impossível", concordam. "Se não for a OpenAI, será outra empresa qualquer a fazê-lo", diz Arlindo Oliveira. Luís Paulo Reis vai ainda mais longe: "Têm de ser as grandes empresas e os grandes laboratórios a investigarem a IA, porque a China, por exemplo, não vai deixar de fazê-lo." "A OpenIA tem bastantes preocupações éticas, no sentido de assegurar que processos de decisão dos sistemas são baseados em valores humanos, que este não será só um produto tecnológico. Pelo menos, em teoria, isso está a ser feito", esclarece Luís Paulo Reis.

Relacionados

Futuro

Mais Futuro

Patrocinados