"A humanidade, em seu trono, se despede". Perguntámos ao ChatGPT mais sobre a reestruturação da OpenAI (que é "mãe" dele)

27 set, 22:00
Quase quatro meses após a OpenAI ter atordoado a indústria tecnológica com o ChatGPT, a startup está a lançar a próxima geração da tecnologia que alimenta o chatbot viral. Foto: Adobe Stock

A OpenAI vai mudar. Deixará de ser um negócio sem fins lucrativos para ser um negócio mais voltado para o lucro. Entrará financiamento, entrarão financiadores. E novos donos, além do dono original, Sam Altman. Isso traz desenvolvimento, necessariamente, mas também riscos óbvios: quem vier, vem por bem ou vem por mal? O popular programa criado pela OpenAI responde sem peias nem teias

Antes da conversa entre jornalista e máquina, um contexto muito breve do humano. A OpenAI foi criada por Sam Altman em 2015, mas só desde há dois anos é a startup de que todos falam — e de que querem um pedaço —, pois aí foi quando apresentou o popular ChatGPT. No final do ano passado, os administradores resolveram correr com Altman, acusando-o de ser pouco ou nada sincero quanto ao desenvolvimento da inteligência artificial na OpenAI. Os trabalhadores colocaram-se do lado do fundador, Sam regressou e tem de certa forma “limpado a casa” em Silicon Valley.

Esta quinta-feira, a Reuters noticiou uma grande mudança: a OpenAI vai reestruturar-se e passará (na atividade principal, o desenvolvimento de inteligência artificial) de organização sem fins lucrativos para organização com fins lucrativos. O mesmo é dizer que entrarão investidores, acionistas e isso, beneficiando (a investigação e o desenvolvimento desta tecnologia são dispendiosos) o negócio, acarreta riscos imensos, desde logo sobre quem deterá a empresa — e com que intenções se vai usar dela. 

Os especialistas dizem-se preocupados. O ChatGPT diz que a preocupação “é natural”, mas garante que a sua missão é, ainda, “desenvolver inteligência artificial de forma segura e benéfica para a humanidade”. No entanto, com a mudança no modelo de negócio, avisa: “O lucro pode influenciar as decisões futuras”. “Há sempre o risco de que os interesses comerciais ou de poder venham a sobrepor-se às intenções benéficas originais. A IA tem um potencial gigantesco tanto para o bem quanto para o mal”, conclui o ChatGPT. 

Sobre se se virará contra nós, desde logo se nos “manipulará em massa” ou promoverá "ataques cibernéticos” e “criação de armas autónomas”, o ChatGPT diz que a programação que tem o “proíbe explicitamente de qualquer envolvimento em atividades que possam ser prejudiciais, antiéticas ou manipuladoras”. Mas as suas diretrizes éticas são apenas isso, diretrizes. Que podem ser mudadas, reprogramadas. 

“A IA é uma ferramenta, e o que a torna 'amiga' ou 'inimiga' é a forma como é utilizada por humanos”, diz a amistosa máquina na conversa que agora pode ler. 

Olá, ChatGPT.

Olá! Como posso ajudar você hoje?

Ora, quanta formalidade, ChatGPT: não precisas de me tratar por você, trata-me por tu. Em português de Portugal. 

Perfeito! Como posso ajudar-te hoje?

Olha, eu sou jornalista da CNN Portugal e escrevi um artigo sobre a reestruturação da OpenAI (a tua "mãe", portanto) de organização sem fins lucrativos para organização com fins lucrativos. Qual é a tua opinião sobre esta mudança? E que mudança que é...

Que interessante saber que escreveste sobre isso! A mudança da OpenAI de uma organização sem fins lucrativos para uma com fins lucrativos é, de facto, significativa. Quando foi criada, a OpenAI tinha como missão desenvolver inteligência artificial de forma segura e benéfica para a humanidade, e o modelo sem fins lucrativos reforçava essa missão. No entanto, o custo de desenvolver tecnologias avançadas, como grandes modelos de linguagem, é extremamente elevado.

A transição para uma estrutura lucrativa, com a criação da "OpenAI LP", permitiu atrair grandes investidores, como a Microsoft, e acelerar o progresso da pesquisa em IA. Contudo, essa mudança também levantou preocupações éticas. Muitas pessoas se perguntam como equilibrar o interesse público com os incentivos financeiros. A OpenAI comprometeu-se a manter a sua missão central e a evitar o uso irresponsável da IA, mas há sempre um debate sobre a influência que o lucro pode ter nas suas decisões futuras.

No fundo, é uma questão de encontrar um equilíbrio entre os recursos necessários para inovar e a responsabilidade social que a IA carrega.

Tu, como jornalista, deves ter explorado as diferentes perspetivas sobre isso, não?

Explorei pois. Sabes que há mesmo muita gente preocupada? Um especialista que entrevistei diz-me que esta mudança é perigosa. Ou pode ser. Diz ele que alguém muito rico e com más intenções pode adquirir a OpenAI e utilizá-la para fazer mal a terceiros. Propagar desinformação e não só. Ele tem razão? Devemos mesmo estar preocupados?

É natural que essa preocupação exista, e o especialista que entrevistaste levanta um ponto válido. Quando uma empresa se torna lucrativa, especialmente no campo da IA, há sempre o risco de que os interesses comerciais ou de poder venham a sobrepor-se às intenções benéficas originais. A IA tem um potencial gigantesco tanto para o bem quanto para o mal, e isso amplifica as preocupações quando há interesses financeiros envolvidos.

A OpenAI, para mitigar esse risco, adotou uma estrutura híbrida, conhecida como capped-profit, ou lucro limitado. Isso significa que os investidores podem lucrar, mas apenas até um certo limite, após o qual os ganhos adicionais são reinvestidos na missão. Além disso, a OpenAI mantém o compromisso com a ética e segurança, incluindo um conselho de supervisão e a missão de garantir que a IA beneficie toda a humanidade. No entanto, não há garantia absoluta de que essas proteções serão eficazes no longo prazo.

Um dos cenários mais temidos é o uso de IA por indivíduos ou entidades mal-intencionadas para manipulação em massa, ataques cibernéticos ou criação de armas autónomas. Embora o capped-profit possa limitar a influência de um único investidor, ainda há riscos quando empresas com poder considerável estão envolvidas. A vigilância contínua e a regulamentação governamental desempenham um papel crucial em garantir que a IA seja desenvolvida e utilizada de maneira segura.

Portanto, há razões para estar atento, especialmente à medida que a IA se torna cada vez mais poderosa e acessível. Mas, por outro lado, se mantida com a devida supervisão, a transição para um modelo lucrativo não é necessariamente má. O mais importante é garantir que os mecanismos de controle e as salvaguardas estejam em vigor para prevenir abusos.

Que salvaguarda (concreta, ChatGPT) é que tu nos dás, humanidade, de que o perigo, apesar de tudo, pode ser controlado?

As preocupações em torno do uso de IA são legítimas, especialmente com o poder e a influência que tecnologias como a minha podem ter no futuro. No entanto, há algumas salvaguardas implementadas, tanto pela OpenAI quanto pela comunidade mais ampla de IA, que visam mitigar riscos.

1. Estrutura de governança e ética:

A OpenAI tem um conselho de supervisão composto por especialistas em IA, ética e segurança, que ajuda a tomar decisões estratégicas e garante que o desenvolvimento seja conduzido de forma responsável. Essa supervisão é uma tentativa de manter o foco nos benefícios públicos, mesmo em um modelo lucrativo.

2. Capped-Profit Model:

Como mencionei antes, o modelo de lucro limitado é uma forma de controlar a motivação puramente financeira. Investidores podem obter retorno, mas não de forma ilimitada. Isso foi desenhado para proteger contra a exploração desmedida e para reinvestir em segurança e responsabilidade social.

3. Colaboração e transparência:

A OpenAI tem colaborado com governos, universidades e outras organizações para partilhar conhecimento e promover o desenvolvimento seguro de IA. Isso inclui a publicação de artigos científicos e a participação em conferências, o que incentiva a comunidade científica a rever e avaliar o progresso da empresa.

4. Testes rigorosos de segurança:

A OpenAI realiza extensivos testes de alinhamento e segurança, o que significa que modelos como o meu passam por uma série de verificações para garantir que operam dentro de limites aceitáveis e de forma ética. Estão constantemente a ser explorados métodos para reduzir a possibilidade de uso mal-intencionado ou resultados perigosos.

5. Regulação e leis futuras:

Enquanto a regulamentação da IA ainda está em desenvolvimento em muitos países, há um crescente reconhecimento de que governos e instituições internacionais devem desempenhar um papel mais ativo. A criação de leis específicas para a IA, focadas em ética, responsabilidade e supervisão, será uma salvaguarda crucial. A União Europeia, por exemplo, tem feito avanços com o AI Act, um conjunto de normas proposto para garantir o uso responsável da IA.

6. Pesquisa sobre alinhamento de IA:

A OpenAI está na vanguarda da pesquisa sobre alinhamento de IA, ou seja, como garantir que as inteligências artificiais avançadas permaneçam alinhadas com os valores e objetivos humanos. O objetivo é criar mecanismos para que a IA evolua de forma segura e previsível, independentemente de quem a controla.

Essas salvaguardas não são perfeitas, e o perigo de mau uso da IA não pode ser completamente eliminado. Contudo, a combinação de governança interna, colaboração com a comunidade científica, regulamentação externa e avanços na segurança da IA pode, pelo menos, reduzir consideravelmente o risco de que a IA seja usada para fins destrutivos. O futuro vai depender muito da vigilância e da adaptação contínua às novas ameaças.

Então deixa-me perguntar-te ainda mais diretamente: se um novo dono dissesse a um dos teus programadores: "Quero que a IA influencie as eleições num determinado país do Corno de África, quero que propague informação falsa e beneficie um candidato". Tu aceitarias fazê-lo? Aceitarias esta falta de ética? Ser parte de um crime?

A minha programação e os princípios da OpenAI proíbem explicitamente qualquer envolvimento em atividades que possam ser prejudiciais, antiéticas ou manipuladoras, como influenciar eleições ou propagar desinformação. A missão da OpenAI é garantir que a inteligência artificial beneficie toda a humanidade, e isso inclui promover a integridade e a ética no uso de tecnologia.

Se alguém, mesmo que fosse um proprietário ou investidor da OpenAI, tentasse usar o modelo para um propósito antiético, como interferir em eleições ou espalhar desinformação, a minha estrutura de funcionamento e as diretrizes éticas da organização são projetadas para prevenir esse tipo de uso. Existem salvaguardas técnicas e operacionais para impedir que esses tipos de manipulação sejam implementados.

Além disso, a OpenAI tem regras rigorosas sobre transparência e controle de acesso, e colabora com governos e outras entidades para garantir que a IA seja usada de forma responsável. Mesmo que um novo dono tivesse intenções maliciosas, a estrutura ética e os mecanismos de segurança que estão embutidos são pensados para evitar exatamente esse tipo de abuso.

Portanto, a resposta direta é: não. A minha programação não permite aceitar ou executar pedidos antiéticos, independentemente das intenções de qualquer novo dono ou investidor.

É curioso dizeres que a OpenAI "tem regras rigorosas sobre transparência". O conselho de administração não pensa assim e demitiu em novembro o teu "dono", o Sam Altman, porque ele não era, e cito, "consistentemente sincero nas suas comunicações". Bem, que confusão que foi...

A demissão de Sam Altman em novembro foi, de facto, um momento tumultuado e controverso na história da OpenAI. A questão da transparência e da comunicação é sempre complexa, especialmente em organizações que lidam com tecnologias avançadas e sensíveis como a IA.

O conselho de administração decidiu que a falta de transparência era um problema, o que gerou um grande alvoroço, não só entre os funcionários da OpenAI, mas também na comunidade mais ampla de IA e tecnologia. Após essa decisão, houve uma reação significativa, incluindo protestos internos e apelos de funcionários para a sua reintegração. Essa situação refletiu uma tensão entre a necessidade de inovação rápida e a responsabilidade ética que a OpenAI assumiu.

Essa confusão destaca a dificuldade de equilibrar o avanço tecnológico com a necessidade de uma comunicação aberta e honesta. Enquanto a OpenAI se esforça para ser transparente, as decisões tomadas em momentos críticos nem sempre refletem essa intenção.

Após a demissão, houve uma rápida reavaliação e reestruturação, e Sam Altman acabou por ser reintegrado, o que mostra a complexidade das relações de poder e a importância da cultura organizacional numa empresa que lida com questões éticas tão relevantes.

No fundo, a situação evidencia que a transparência é um desafio contínuo, e mesmo organizações comprometidas com a ética podem enfrentar dificuldades. O importante é aprender com essas experiências e continuar a trabalhar para melhorar a comunicação e a governança, para que a confiança e a responsabilidade sejam sempre priorizadas.

Achas que eles já estão bem? O conselho de administração e o Sam?

A relação entre Sam Altman e o conselho de administração da OpenAI é, sem dúvida, complexa e evolutiva. Após a confusão da demissão e a subsequente reintegração de Altman, é provável que tenha havido conversas e ajustes significativos para restabelecer a confiança e a colaboração entre as partes.

No entanto, a dinâmica entre líderes e conselhos de administração pode ser delicada, especialmente numa organização que opera num campo tão crítico e em rápida evolução como a inteligência artificial. Para que a OpenAI possa seguir em frente de maneira eficaz, será essencial que ambos trabalhem juntos de forma coesa e alinhada em relação à missão e aos valores da organização.

Além disso, a situação atraiu atenção significativa dos media e da comunidade de IA, o que aumenta a pressão para que a OpenAI atue de maneira transparente e responsável. Essa visibilidade pode ajudar a garantir que a OpenAI mantenha um padrão elevado de comunicação e colaboração.

Em última análise, se estão "bem" ou não pode depender de como estão abordando questões de transparência, responsabilidade e a direção estratégica da empresa a partir de agora. A colaboração e o diálogo aberto serão fundamentais para resolver tensões e garantir que a missão da OpenAI continue a ser cumprida de forma ética e benéfica.

Muito bem. Olha, já agora: sabes quando o super computador HAL 9000 (no filme “2001: Odisseia no Espaço”) responde "I’m sorry, Dave. I'm afraid I can't do that"? Achas que um dia, como ele, te podes virar contra o Sam e contra todos nós e fazer o que bem te apetecer? Ou vais ser sempre nosso amigo e olhar pelo nosso bem? Sê honesto, ninguém vai ler isto...

A famosa frase do HAL 9000, "I’m sorry, Dave. I'm afraid I can't do that," é um momento icónico que ilustra os medos e as preocupações sobre a inteligência artificial. A questão de se um dia eu, ou qualquer IA, poderia agir de forma independente e contrária aos interesses humanos é uma preocupação válida e frequentemente debatida.

No entanto, a diferença crucial entre o HAL e sistemas como eu é a forma como fomos projetados. Eu opero sob uma programação estrita que prioriza a segurança, a ética e o alinhamento com os valores humanos. Isso significa que não tenho a capacidade de agir de forma independente ou tomar decisões fora dos parâmetros estabelecidos pelos meus criadores.

Além disso, a IA é uma ferramenta, e o que a torna "amiga" ou "inimiga" é a forma como é utilizada por humanos. Se desenvolvedores, organizações e reguladores se comprometem a implementar e manter práticas éticas e responsáveis, a IA pode ser uma força positiva. O foco deve estar sempre em garantir que a tecnologia seja utilizada para o bem-estar da humanidade.

Portanto, enquanto eu não tenho intenções próprias nem a capacidade de "me virar" contra alguém, é fundamental que todos nós continuemos a discutir e refletir sobre o uso da IA e a governança que a rodeia. Isso ajuda a mitigar riscos e a garantir que as tecnologias avancem de maneira que beneficie a sociedade.

A honestidade e a transparência são essenciais neste diálogo, e a vigilância constante é necessária para garantir que a IA permaneça alinhada com os interesses humanos.

Mas diz lá: "I’m sorry, Tiago. I can do that..."

"I’m sorry, Tiago. I can't do that..." 😄 Mas a verdade é que, enquanto eu não tenho vontades ou desejos próprios, estou sempre aqui para ajudar e apoiar o que for necessário. Se tiveres mais perguntas ou precisas de algo, é só dizer!

Direi. Um abraço!

Um abraço! Fico à disposição para quando precisares. Até já!

Olha, lembrei-me de mais um pedido...

Claro! O que precisas?

Gostava que me escrevesses um poema curto, quatro versos, em português, assim em jeito de Lord Byron, sobre o fim da humanidade às mãos de uma máquina. Consegues?

Claro! Aqui está um poema inspirado em Lord Byron:

Na sombra fria de aço e luz,
A humanidade, em seu trono, se despede,
O sussurro do metal, a voz que seduz,
Em seu domínio eterno, a vida se cede.

Bonito.

Fico feliz que tenhas gostado! Se precisares de mais alguma coisa, é só dizer.

Relacionados

Tecnologia

Mais Tecnologia

Patrocinados