Dezenas de especialistas em inteligência artificial (IA) – incluindo os CEOs da OpenAI, Google DeepMind e Anthropic – assinaram recentemente uma declaração aberta publicada pelo Center for AI Safety (CAIS).
We just put out a statement:
“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”
Signatories include Hinton, Bengio, Altman, Hassabis, Song, etc.https://t.co/N9f6hs4bpa
🧵 (1/6)
— Dan Hendrycks (@DanHendrycks) May 30, 2023
A declaração contém uma única frase:
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.”
Entre os signatários do documento estão muitos luminares da IA, incluindo o “Padrinho” da IA, Geoffrey Hinton; Universidade da Califórnia, Stuart Russell de Berkeley; e Lex Fridman do Instituto de Tecnologia de Massachusetts. O músico Grimes também é signatário, listado na categoria “outras figuras notáveis”.
Embora a declaração possa parecer inofensiva, a mensagem subjacente é um tanto controversa na comunidade de IA.
Um número aparentemente crescente de especialistas acredita que as tecnologias atuais podem ou inevitavelmente levarão ao surgimento ou desenvolvimento de um sistema de IA capaz de representar uma ameaça existencial à espécie humana.
Suas opiniões, no entanto, são contrariadas por um contingente de especialistas com opiniões diametralmente opostas. O cientista-chefe de IA da Meta, Yann LeCun, por exemplo, observou em várias ocasiões que não acredita necessariamente que a IA se tornará incontrolável.
Super-human AI is nowhere near the top of the list of existential risks.
In large part because it doesn't exist yet.Until we have a basic design for even dog-level AI (let alone human level), discussing how to make it safe is premature. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) May 30, 2023
Para ele e outros que discordam da ideia da extinção causada pela inteligência artificial, como Andrew Ng, cofundador do Google Brain e ex-cientista-chefe do Baidu, a IA não é o problema, é a resposta.
Do outro lado do argumento, especialistas como Hinton e o CEO da Conjecture, Connor Leahy, acreditam que a IA em nível humano é inevitável e, como tal, a hora de agir é agora.
Heads of all major AI labs signed this letter explicitly acknowledging the risk of extinction from AGI.
An incredible step forward, congratulations to Dan for his incredible work putting this together and thank you to every signatory for doing their part for a better future! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) May 30, 2023
No entanto, não está claro quais ações os signatários da declaração estão pedindo. Os CEOs e/ou chefes de IA de quase todas as grandes empresas de IA, bem como cientistas renomados de toda a academia, estão entre os que assinaram, deixando claro que a intenção não é interromper o desenvolvimento desses sistemas potencialmente perigosos.
No início deste mês, o CEO da OpenAI, Sam Altman, um dos signatários da declaração acima mencionada, fez sua primeira aparição perante o Congresso durante uma audiência no Senado para discutir a regulamentação da IA. Seu testemunho ganhou as manchetes depois que ele passou a maior parte instando os legisladores a regularem seu setor.
O Altman’s Worldcoin, um projeto que combina criptomoeda e prova de personalidade, também fez recentemente as rodadas da mídia depois de levantar US$115 milhões em financiamento da Série C, elevando seu financiamento total após três rodadas para US$240 milhões.
Veja mais em: Inteligência Artificial (IA) | Notícias
