Mais de 2.600 líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial (IA), temendo riscos profundos para a sociedade e a humanidade.
O CEO da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e uma série de CEOs, CTOs e pesquisadores de IA estavam entre os signatários da carta, que foi publicada pelo think tank dos Estados Unidos, Future of Life Institute (FOLI).
O instituto convocou todas as empresas de IA a pausar imediatamente o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses, compartilhando preocupações de que a inteligência competitiva humana pode representar riscos profundos para a sociedade e a humanidade, entre outras coisas.
📢 We're calling on AI labs to temporarily pause training powerful models!
Join FLI's call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who've signed: https://t.co/3rJBjDXapc
A short 🧵on why we're calling for this – (1/8)
— Future of Life Institute (@FLIxrisk) March 29, 2023
O instituto escreveu:
“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está acontecendo.”
O GPT-4 é a mais recente iteração do chatbot baseado em inteligência artificial da OpenAI, lançado em março. Até o momento, ele passou em alguns dos mais rigorosos exames de ensino médio e direito dos EUA dentro do 90º. Entende-se que é 10 vezes mais avançado que a versão original do ChatGPT.
Há uma corrida fora de controle entre as empresas de IA para desenvolver IA mais poderosa, que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável, afirmou o FOLI.
BREAKING: A petition is circulating to PAUSE all major AI developments.
e.g. No more ChatGPT upgrades & many others.
Signed by Elon Musk, Steve Wozniak, Stability AI CEO & 1000s of other tech leaders.
Here's the breakdown: 👇 pic.twitter.com/jR4Z3sNdDw
— Lorenzo Green 〰️ (@mrgreen) March 29, 2023
Entre as principais preocupações estava se as máquinas poderiam inundar os canais de informação, potencialmente com propaganda e falsidade e se as máquinas automatizariam todas as oportunidades de emprego.
A FOLI levou essas preocupações um passo adiante, sugerindo que os esforços empreendedores dessas empresas de IA podem levar a uma ameaça existencial:
“Devemos desenvolver mentes não humanas que possam eventualmente superar em número, ser mais espertas, obsoletas e nos substituir? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos.”
Having a bit of AI existential angst today
— Elon Musk (@elonmusk) February 26, 2023
O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente deve ser necessária antes de treinar futuros sistemas de IA.
Altman destacou a necessidade de se preparar para robôs de inteligência artificial geral (AGI) e superinteligência artificial (ASI).
Nem todos os especialistas em IA correram para assinar a petição, no entanto. Ben Goertzel, CEO da SingularityNET, explicou em uma resposta a Gary Marcus, autor de Rebooting.AI, que os modelos de aprendizado de idiomas (LLMs) não se tornarão AGIs, o que, até o momento, tem havido poucos desenvolvimentos.
Em vez disso, ele disse que a pesquisa e o desenvolvimento devem ser desacelerados para coisas como armas biológicas e armas nucleares:
On the whole, human society will be better off with GPT-5 than GPT-4 — better to have slightly smarter models around. AIs taking human jobs will ultimately a good thing. The hallucinations and banality will decrease and folks will learn to work around them.
— Ben Goertzel (@bengoertzel) March 29, 2023
Além de modelos de aprendizado de idiomas como o ChatGPT, a tecnologia deep fake alimentada por IA foi usada para criar imagens convincentes, boatos de áudio e vídeo. A tecnologia também foi usada para criar obras de arte geradas por IA, com algumas preocupações levantadas sobre se poderia violar as leis de direitos autorais em certos casos.
O CEO da Galaxy Digital, Mike Novogratz, disse recentemente aos investidores que ficou chocado com a quantidade de atenção regulatória que foi dada às criptomoedas, enquanto pouca atenção foi dada à inteligência artificial.
“Quando penso em IA, fico chocado ao ver que estamos falando tanto sobre regulamentação de criptomoedas e nada sobre regulamentação de IA. Quero dizer, acho que o governo está completamente de cabeça para baixo.”
A FOLI argumentou que, caso a pausa no desenvolvimento da IA não seja decretada rapidamente, os governos devem se envolver com uma moratória.
“Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.”