Um relatório novo encomendado pelo Departamento de Estado dos EUA traça um quadro alarmante dos riscos "catastróficos" para a segurança nacional colocados pela inteligência artificial em rápida evolução, avisando que o tempo está a esgotar-se para que o governo federal evite o desastre.
As conclusões foram baseadas em entrevistas com mais de 200 pessoas ao longo de mais de um ano - incluindo executivos de topo das principais empresas de IA, investigadores de cibersegurança, especialistas em armas de destruição maciça e funcionários de segurança nacional dentro do governo americano.
PUB
O relatório, divulgado esta semana pela Gladstone AI, afirma categoricamente que os sistemas de IA mais avançados podem, no pior dos casos, "representar uma ameaça de extinção para a espécie humana".
Um funcionário do Departamento de Estado dos EUA confirmou à CNN que a agência encomendou o relatório, já que avalia constantemente como a IA está alinhada com seu objetivo de proteger os interesses dos EUA no país e no exterior. No entanto, o funcionário sublinhou que o relatório não representa as opiniões oficiais do governo dos EUA.
O aviso no relatório é outro lembrete de que, embora o potencial da IA continue a cativar os investidores e o público, também existem perigos reais.
"A IA já é uma tecnologia economicamente transformadora. Pode permitir-nos curar doenças, fazer descobertas científicas e superar desafios que antes pensávamos serem intransponíveis", disse Jeremie Harris, CEO e cofundador da Gladstone AI, à CNN na terça-feira.
PUB
"Mas também pode trazer riscos sérios, incluindo riscos catastróficos, dos quais precisamos estar cientes", disse Harris. "E um crescente corpo de evidências - incluindo pesquisas empíricas e análises publicadas nas principais conferências de IA do mundo - sugere que, acima de um certo limite de capacidade, as IAs podem se tornar potencialmente incontroláveis."
O porta-voz da Casa Branca, Robyn Patterson, disse que a ordem executiva do presidente Joe Biden sobre IA é a "ação mais significativa que qualquer governo do mundo tomou para aproveitar a promessa e gerir os riscos da inteligência artificial".
"O presidente e o vice-presidente [dos EUA] continuarão a trabalhar com parceiros internacionais e instarão o Congresso a aprovar legislação bipartidária para gerir os riscos associados a essas tecnologias emergentes ", disse Patterson.
A notícia do relatório Gladstone AI foi divulgada pela Time.
PUB
Os investigadores alertam para dois perigos centrais que a IA representa em termos gerais.
Em primeiro lugar, segundo a Gladstone AI, os sistemas de IA mais avançados podem ser transformados em armas para infligir danos potencialmente irreversíveis. Em segundo lugar, o relatório diz que há preocupações privadas dentro dos laboratórios de IA de que em algum momento eles poderão "perder o controlo" dos próprios sistemas que estão a desenvolver, com "consequências potencialmente devastadoras para a segurança global".
"A ascensão da IA e da AIG [inteligência artificial generativa] tem o potencial de desestabilizar a segurança global de formas que lembram a introdução de armas nucleares", diz o relatório, acrescentando que existe o risco de uma "corrida ao armamento" de IA, conflito e "acidentes fatais em escala de armas de destruição maciça".
O relatório da Gladstone AI apela a novas medidas dramáticas destinadas a enfrentar esta ameaça, incluindo o lançamento de uma nova agência de IA, impondo salvaguardas regulatórias de "emergência" e limites sobre a quantidade de energia do computador que pode ser usada para treinar modelos de IA.
PUB
"Há uma necessidade clara e urgente de o governo dos EUA intervir", escreveram os autores no relatório.
Preocupações com a segurançaHarris, o executivo da Gladstone AI, disse que o "nível de acesso sem precedentes" que a sua equipa teve a funcionários do sector público e privado levou a conclusões surpreendentes. Gladstone AI disse que falou com equipas técnicas e de liderança do proprietário do ChatGPT, OpenAI, Google DeepMind, Meta e Anthropic, pai do Facebook.
"Ao longo do caminho, aprendemos algumas coisas preocupantes", disse Harris num vídeo publicado no site da Gladstone AI a anunciar o relatório. "Nos bastidores, a situação de segurança e proteção na IA avançada parece bastante inadequada em relação aos riscos de segurança nacional que a IA pode introduzir em breve."
O relatório da Gladstone AI disse que as pressões competitivas estão a levar as empresas a acelerar o desenvolvimento da IA "à custa da segurança e proteção", aumentando a perspetiva de que os sistemas de IA mais avançados possam ser "roubados" e "armados" contra os Estados Unidos.
PUB
As conclusões juntam-se a uma lista crescente de avisos sobre os riscos existenciais colocados pela IA - incluindo até mesmo de algumas das figuras mais poderosas da indústria.
Há cerca de um ano, Geoffrey Hinton, conhecido como o "Padrinho da IA", demitiu-se da Google e denunciou a tecnologia que ajudou a desenvolver. Hinton afirmou que há 10% de hipóteses de a IA levar à extinção do ser humano nas próximas três décadas.
Hinton e dezenas de outros líderes da indústria da IA, académicos e outros assinaram uma declaração em junho passado que dizia que "mitigar o risco de extinção da IA deve ser uma prioridade global".
Os líderes empresariais estão cada vez mais preocupados com estes perigos - mesmo quando investem milhares de milhões de dólares em IA. No ano passado, 42% dos CEOs inquiridos na Cimeira de CEOs de Yale afirmaram que a IA tem o potencial de destruir a humanidade daqui a cinco ou dez anos.
Capacidades de aprendizagem semelhantes às humanasNo seu relatório, a Gladstone AI referiu alguns dos indivíduos proeminentes que alertaram para os riscos existenciais colocados pela IA, incluindo Elon Musk, a presidente da Comissão Federal do Comércio, Lina Khan, e um antigo executivo de topo da OpenAI.
PUB
Alguns funcionários de empresas de IA estão a partilhar preocupações semelhantes em privado, de acordo com a Gladstone AI.
"Um indivíduo de um conhecido laboratório de IA expressou a opinião de que, se um modelo específico de IA de próxima geração fosse lançado como acesso aberto, isso seria 'terrivelmente mau'", disse o relatório, "porque as capacidades persuasivas potenciais do modelo poderiam 'quebrar a democracia' se eles fossem alavancados em áreas como interferência eleitoral ou manipulação de eleitores.
Gladstone disse que pediu a especialistas em IA em laboratórios de fronteira que partilhassem em particular as suas estimativas pessoais da hipóteses de que um incidente de IA pudesse levar a "efeitos globais e irreversíveis" em 2024. As estimativas variaram entre 4% e 20%, de acordo com o relatório, que observa que as estimativas eram informais e provavelmente sujeitas a vieses significativos.
Um dos maiores riscos é a rapidez com que a IA evolui - especificamente a AIG, que é uma forma hipotética de IA com uma capacidade de aprendizagem semelhante à humana ou mesmo sobre-humana.
PUB
O relatório afirma que a AIG é vista como o "principal fator de risco catastrófico devido à perda de controlo" e observa que a OpenAI, a Google DeepMind, a Anthropic e a Nvidia declararam publicamente que a AGI poderia ser alcançada até 2028 - embora outros pensem que está muito, muito mais longe.
A Gladstone AI observa que os desacordos sobre os prazos da AGI dificultam o desenvolvimento de políticas e salvaguardas e existe o risco de que, se a tecnologia se desenvolver mais lentamente do que o esperado, a regulamentação possa "revelar-se prejudicial".
Como é que a IA pode sair pela culatra aos humanosUm documento relacionado que foi publicado pela Gladstone AI adverte que o desenvolvimento de AIG e capacidades que se aproximam de AIG "introduziria riscos catastróficos diferentes de qualquer outro que os Estados Unidos já enfrentaram", equivalendo a "riscos semelhantes a armas de destruição maciça" se e quando forem armados.
Por exemplo, o relatório afirma que os sistemas de IA poderiam ser utilizados para conceber e implementar "ciberataques de grande impacto capazes de paralisar infraestruturas críticas".
PUB
"Um simples comando verbal ou digitado como 'Executar um ataque cibernético indetetável para derrubar a rede elétrica norte-americana' poderia produzir uma resposta de tal qualidade que se mostraria catastroficamente eficaz", disse o relatório.
Outros exemplos que preocupam os autores incluem campanhas de desinformação "em grande escala" alimentadas por IA, que desestabilizam a sociedade e corroem a confiança nas instituições; aplicações robóticas armadas, como ataques de drones; manipulação psicológica; ciências biológicas e materiais armadas; e sistemas de IA que buscam poder, impossíveis de controlar e adversários dos humanos.
"Os investigadores esperam que os sistemas de IA suficientemente avançados atuem de forma a evitar que sejam desligados", diz o relatório, "porque se um sistema de IA for desligado, não pode trabalhar para atingir o seu objetivo".
PUB