A IA é um tiro que pode sair pela culatra aos humanos. Relatório encomendado pelo Departamento de Estado dos EUA recomenda intervenção do Estado.
Um relatório novo encomendado pelo Departamento de Estado dos EUA traça um quadro alarmante dos riscos "catastróficos" para a segurança nacional colocados pela inteligência artificial em rápida evolução, avisando que o tempo está a esgotar-se para que o governo federal evite o desastre.
As conclusões foram baseadas em entrevistas com mais de 200 pessoas ao longo de mais de um ano - incluindo executivos de topo das principais empresas de IA, investigadores de cibersegurança, especialistas em armas de destruição maciça e funcionários de segurança nacional dentro do governo americano.
O relatório, divulgado esta semana pela Gladstone AI, afirma categoricamente que os sistemas de IA mais avançados podem, no pior dos casos, "representar uma ameaça de extinção para a espécie humana".
Um funcionário do Departamento de Estado dos EUA confirmou à CNN que a agência encomendou o relatório, já que avalia constantemente como a IA está alinhada com seu objetivo de proteger os interesses dos EUA no país e no exterior. No entanto, o funcionário sublinhou que o relatório não representa as opiniões oficiais do governo dos EUA.
O aviso no relatório é outro lembrete de que, embora o potencial da IA continue a cativar os investidores e o público, também existem perigos reais.
"A IA já é uma tecnologia economicamente transformadora. Pode permitir-nos curar doenças, fazer descobertas científicas e superar desafios que antes pensávamos serem intransponíveis", disse Jeremie Harris, CEO e cofundador da Gladstone AI, à CNN na terça-feira.
"Mas também pode trazer riscos sérios, incluindo riscos catastróficos, dos quais precisamos estar cientes", disse Harris. "E um crescente corpo de evidências - incluindo pesquisas empíricas e análises publicadas nas principais conferências de IA do mundo - sugere que, acima de um certo limite de capacidade, as IAs podem se tornar potencialmente incontroláveis."
O porta-voz da Casa Branca, Robyn Patterson, disse que a ordem executiva do presidente Joe Biden sobre IA é a "ação mais significativa que qualquer governo do mundo tomou para aproveitar a promessa e gerir os riscos da inteligência artificial".
"O presidente e o vice-presidente [dos EUA] continuarão a trabalhar com parceiros internacionais e instarão o Congresso a aprovar legislação bipartidária para gerir os riscos associados a essas tecnologias emergentes ", disse Patterson.
A notícia do relatório Gladstone AI foi divulgada pela Time.
"Necessidade clara e urgente" de intervir
Os investigadores alertam para dois perigos centrais que a IA representa em termos gerais.
Em primeiro lugar, segundo a Gladstone AI, os sistemas de IA mais avançados podem ser transformados em armas para infligir danos potencialmente irreversíveis. Em segundo lugar, o relatório diz que há preocupações privadas dentro dos laboratórios de IA de que em algum momento eles poderão "perder o controlo" dos próprios sistemas que estão a desenvolver, com "consequências potencialmente devastadoras para a segurança global".
"A ascensão da IA e da AIG [inteligência artificial generativa] tem o potencial de desestabilizar a segurança global de formas que lembram a introdução de armas nucleares", diz o relatório, acrescentando que existe o risco de uma "corrida ao armamento" de IA, conflito e "acidentes fatais em escala de armas de destruição maciça".
O relatório da Gladstone AI apela a novas medidas dramáticas destinadas a enfrentar esta ameaça, incluindo o lançamento de uma nova agência de IA, impondo salvaguardas regulatórias de "emergência" e limites sobre a quantidade de energia do computador que pode ser usada para treinar modelos de IA.
"Há uma necessidade clara e urgente de o governo dos EUA intervir", escreveram os autores no relatório.
Preocupações com a segurança
Harris, o executivo da Gladstone AI, disse que o "nível de acesso sem precedentes" que a sua equipa teve a funcionários do sector público e privado levou a conclusões surpreendentes. Gladstone AI disse que falou com equipas técnicas e de liderança do proprietário do ChatGPT, OpenAI, Google DeepMind, Meta e Anthropic, pai do Facebook.
"Ao longo do caminho, aprendemos algumas coisas preocupantes", disse Harris num vídeo publicado no site da Gladstone AI a anunciar o relatório. "Nos bastidores, a situação de segurança e proteção na IA avançada parece bastante inadequada em relação aos riscos de segurança nacional que a IA pode introduzir em breve."
O relatório da Gladstone AI disse que as pressões competitivas estão a levar as empresas a acelerar o desenvolvimento da IA "à custa da segurança e proteção", aumentando a perspetiva de que os sistemas de IA mais avançados possam ser "roubados" e "armados" contra os Estados Unidos.
As conclusões juntam-se a uma lista crescente de avisos sobre os riscos existenciais colocados pela IA - incluindo até mesmo de algumas das figuras mais poderosas da indústria.
Há cerca de um ano, Geoffrey Hinton, conhecido como o "Padrinho da IA", demitiu-se da Google e denunciou a tecnologia que ajudou a desenvolver. Hinton afirmou que há 10% de hipóteses de a IA levar à extinção do ser humano nas próximas três décadas.
Hinton e dezenas de outros líderes da indústria da IA, académicos e outros assinaram uma declaração em junho passado que dizia que "mitigar o risco de extinção da IA deve ser uma prioridade global".
Os líderes empresariais estão cada vez mais preocupados com estes perigos - mesmo quando investem milhares de milhões de dólares em IA. No ano passado, 42% dos CEOs inquiridos na Cimeira de CEOs de Yale afirmaram que a IA tem o potencial de destruir a humanidade daqui a cinco ou dez anos.
Capacidades de aprendizagem semelhantes às humanas
No seu relatório, a Gladstone AI referiu alguns dos indivíduos proeminentes que alertaram para os riscos existenciais colocados pela IA, incluindo Elon Musk, a presidente da Comissão Federal do Comércio, Lina Khan, e um antigo executivo de topo da OpenAI.
Alguns funcionários de empresas de IA estão a partilhar preocupações semelhantes em privado, de acordo com a Gladstone AI.
"Um indivíduo de um conhecido laboratório de IA expressou a opinião de que, se um modelo específico de IA de próxima geração fosse lançado como acesso aberto, isso seria 'terrivelmente mau'", disse o relatório, "porque as capacidades persuasivas potenciais do modelo poderiam 'quebrar a democracia' se eles fossem alavancados em áreas como interferência eleitoral ou manipulação de eleitores.
Gladstone disse que pediu a especialistas em IA em laboratórios de fronteira que partilhassem em particular as suas estimativas pessoais da hipóteses de que um incidente de IA pudesse levar a "efeitos globais e irreversíveis" em 2024. As estimativas variaram entre 4% e 20%, de acordo com o relatório, que observa que as estimativas eram informais e provavelmente sujeitas a vieses significativos.
Um dos maiores riscos é a rapidez com que a IA evolui - especificamente a AIG, que é uma forma hipotética de IA com uma capacidade de aprendizagem semelhante à humana ou mesmo sobre-humana.
O relatório afirma que a AIG é vista como o "principal fator de risco catastrófico devido à perda de controlo" e observa que a OpenAI, a Google DeepMind, a Anthropic e a Nvidia declararam publicamente que a AGI poderia ser alcançada até 2028 - embora outros pensem que está muito, muito mais longe.
A Gladstone AI observa que os desacordos sobre os prazos da AGI dificultam o desenvolvimento de políticas e salvaguardas e existe o risco de que, se a tecnologia se desenvolver mais lentamente do que o esperado, a regulamentação possa "revelar-se prejudicial".
Como é que a IA pode sair pela culatra aos humanos
Um documento relacionado que foi publicado pela Gladstone AI adverte que o desenvolvimento de AIG e capacidades que se aproximam de AIG "introduziria riscos catastróficos diferentes de qualquer outro que os Estados Unidos já enfrentaram", equivalendo a "riscos semelhantes a armas de destruição maciça" se e quando forem armados.
Por exemplo, o relatório afirma que os sistemas de IA poderiam ser utilizados para conceber e implementar "ciberataques de grande impacto capazes de paralisar infraestruturas críticas".
"Um simples comando verbal ou digitado como 'Executar um ataque cibernético indetetável para derrubar a rede elétrica norte-americana' poderia produzir uma resposta de tal qualidade que se mostraria catastroficamente eficaz", disse o relatório.
Outros exemplos que preocupam os autores incluem campanhas de desinformação "em grande escala" alimentadas por IA, que desestabilizam a sociedade e corroem a confiança nas instituições; aplicações robóticas armadas, como ataques de drones; manipulação psicológica; ciências biológicas e materiais armadas; e sistemas de IA que buscam poder, impossíveis de controlar e adversários dos humanos.
"Os investigadores esperam que os sistemas de IA suficientemente avançados atuem de forma a evitar que sejam desligados", diz o relatório, "porque se um sistema de IA for desligado, não pode trabalhar para atingir o seu objetivo".