Apelo de Figuras Públicas Contra ‘Superinteligência’ em IA
Até o momento, 1.149 figuras públicas, incluindo cientistas vencedores do Prêmio Nobel, ex-líderes militares, artistas e membros da monarquia britânica, assinaram uma declaração pedindo a proibição do desenvolvimento da “superinteligência”. O documento expressa a preocupação de que essa etapa ainda não alcançada da inteligência artificial possa, um dia, representar uma ameaça existencial à humanidade.
O manifesto propõe “a proibição do desenvolvimento de superinteligência” até que haja “um consenso científico amplo de que será feito de maneira segura e controlável” e “amplo apoio público”. A iniciativa busca garantir que o avanço da IA seja acompanhado de uma avaliação cuidadosa dos riscos envolvidos.
Assinaturas de Personalidades Renomadas
Organizada por pesquisadores de IA preocupados com o rápido avanço tecnológico, a carta conta com assinaturas de pessoas de diferentes áreas. Entre os signatários estão Geoffrey Hinton, laureado com o Nobel e conhecido como “padrinho da IA”, Yoshua Bengio, um dos pioneiros da área, Mike Mullen, ex-líder militar dos EUA durante os governos Bush e Obama, e os duques de Sussex, príncipe Harry e Meghan Markle.
Grupo Sem Fins Lucrativos e Preocupações Globais
A declaração foi emitida pelo Future of Life Institute, grupo sem fins lucrativos que trabalha com riscos globais como armas nucleares e biotecnologia. O instituto está recebendo novas assinaturas a cada atualização da página. Personalidades como Steve Wozniak (cofundador da Apple), Richard Branson (Virgin Group), o filósofo e conselheiro de IA do Vaticano, Paolo Benanti, e Steve Bannon, ex-assessor de Donald Trump, também subscreveram a iniciativa.
Contexto e Críticas ao Avanço da IA
Esse apelo ocorre em um momento de crescente pressão para desacelerar o desenvolvimento de IA, enquanto empresas como OpenAI, Google e Meta investem bilhões de dólares em novos modelos e data centers. A sociedade ainda não teve tempo para entender as consequências e os riscos do desenvolvimento da IA, segundo Anthony Aguirre, físico e diretor executivo do Future of Life Institute.
LEIA TAMBÉM!
Não é a primeira vez que documentos do tipo são assinados. Em março de 2023, milhares de pessoas assinaram uma carta aberta pedindo uma pausa temporária no desenvolvimento da IA, logo após o lançamento do ChatGPT. Recentemente, trinta pesquisadores assinaram um documento pedindo mais investigação sobre técnicas de monitoramento dos chamados “pensamentos” da IA, as cadeias de raciocínio (chains-of-thoughts ou CoTs), usadas por modelos como o o3, da OpenAI, ou o R1, da DeepSeek, para resolver problemas complexos.