Príncipe Harry, cofundador da Apple e Nobel de economia assinam carta contra superinteligência
O príncipe Harry, a sua esposa Meghan Markle, o cofundador da Apple Steve Wozniak e o ex-estrategista chefe da Casa Branca Steve Bannon se juntaram a um grupo de figuras públicas que pedem a “proibição” do desenvolvimento da chamada superinteligência, em uma improvável aliança contra sistemas avançados de inteligência artificial.
Mais de 800 pessoas, incluindo cientistas de IA, políticos, celebridades e líderes religiosos, assinaram uma declaração para impedir a criação de superinteligência, sistemas de IA que são mais inteligentes que a maioria dos humanos.
“Pedimos uma proibição do desenvolvimento de superinteligência, que não seja suspensa antes que haja amplo consenso científico de que será feita de forma segura e controlável, e forte apoio público”, afirmou a declaração.
Outros signatários da carta são os pioneiros da IA Geoffrey Hinton e Yoshua Bengio, a ex-presidente da Irlanda Mary Robinson, o economista Daron Acemoglu (vencedor do Nobel de economia em 2024) e o cofundador da Virgin Richard Branson.
O Instituto Futuro da Vida (FLI, na sigla em inglês) publicou a carta na quarta-feira junto com uma pesquisa mostrando que 5% dos norte-americanos apoiam “o atual status quo de desenvolvimento não regulamentado”.
Quase três quartos dos entrevistados eram a favor de uma regulamentação robusta, de acordo com a pesquisa realizada pelo grupo de campanha.
“É nossa humanidade que nos une aqui… Cada vez mais pessoas estão começando a pensar que a maior ameaça não é a outra empresa ou mesmo o outro país, mas talvez as máquinas que estamos construindo”, afirmou o presidente do instituto, Max Tegmark, ao Financial Times.
Vários grandes grupos de tecnologia e startups de IA, incluindo OpenAI, Meta e Google, estão em uma acirrada competição para serem os primeiros a desenvolver a superinteligência ou inteligência artificial geral. Ambos os termos geralmente se referem a sistemas de IA que podem superar os humanos na maioria das tarefas.
Em março de 2023, cinco meses após o lançamento do ChatGPT, especialistas em tecnologia, incluindo Elon Musk, divulgaram uma declaração semelhante organizada pelo FLI, que pedia uma moratória de seis meses em todo o desenvolvimento de IA. No entanto, a xAI de Musk continua a construir sistemas de IA.
“Você não precisa de superinteligência para curar o câncer, para carros autônomos ou para melhorar massivamente a produtividade e eficiência”, avaliou Tegmark.
Vários cientistas chineses proeminentes assinaram a declaração, incluindo Andrew Yao e Ya-Qin Zhang, ex-presidente da Baidu.
Outros signatários incluem ex-funcionários do governo como Susan Rice, conselheira de segurança nacional da gestão Barack Obama, e Mike Mullen, presidente do Estado-Maior Conjunto nas administrações de Obama e George W. Bush.
“A perda de controle é vista como uma ameaça à segurança nacional tanto pelo Ocidente quanto pela China. Eles serão contra isso por seus próprios interesses, então não precisam confiar uns nos outros”, afirma o presidente do FLI.
O cenário regulatório global para IA está avançando lentamente, com a legislação mais avançada, a Lei de IA da UE, sendo implementada em etapas, apesar das fortes críticas da indústria.
Nos EUA, estados como Califórnia, Utah e Texas promulgaram leis específicas sobre IA. Uma proposta de moratória de 10 anos na regulamentação de IA foi retirada do projeto de lei orçamentária federal em julho.
(Conteúdo distribuído por Folhapress)
Ouça a rádio de Minas