Inteligência artificial pode representar uma ameaça à humanidade em menos de 2 anos

Inteligência artificial pode representar uma ameaça à humanidade em menos de 2 anos

O assessor do grupo de trabalho de inteligência artificial (IA) do primeiro-ministro do Reino Unido afirmou que os seres humanos têm aproximadamente dois anos para controlar e regular a IA antes que ela se torne muito poderosa.

Em uma entrevista a um veículo de mídia local do Reino Unido, Matt Clifford, que também atua como presidente da Advanced Research and Invention Agency (ARIA) do governo, enfatizou que os sistemas atuais estão se tornando cada vez mais capazes em uma taxa cada vez maior.

Ele prosseguiu dizendo que, se as autoridades não considerarem a segurança e a regulamentação agora, os sistemas se tornarão muito poderosos em dois anos.

“Temos dois anos para estabelecer um quadro que torne o controle e a regulamentação desses modelos muito grandes muito mais possíveis do que é hoje.”

Clifford alertou que há muitos tipos diferentes de riscos quando se trata de IA, tanto a curto prazo quanto a longo prazo.

A entrevista ocorreu após a publicação de uma carta aberta recente pelo Center for AI Safety, assinada por 350 especialistas em IA, incluindo o CEO da OpenAI, Sam Altman, que afirmava que a IA deveria ser tratada como uma ameaça existencial semelhante à representada por armas nucleares e pandemias.

“Eles estão falando sobre o que acontece quando efetivamente criamos uma nova espécie, uma espécie de inteligência maior que a humana.”

O assessor do grupo de trabalho de IA disse que essas ameaças representadas pela IA podem ser muito perigosas e podem matar muitos seres humanos, não todos, simplesmente com base no que esperamos que os modelos sejam daqui a dois anos.

Segundo Clifford, o foco principal dos reguladores e desenvolvedores deve ser entender como controlar os modelos e, em seguida, implementar regulamentações em escala global.

Por enquanto, ele disse que seu maior medo é a falta de compreensão sobre porque os modelos de IA se comportam da maneira como o fazem.

“As pessoas que estão construindo os sistemas mais capazes admitem livremente que não entendem exatamente como os sistemas de IA exibem os comportamentos que exibem.”

Clifford destacou que muitos dos líderes das organizações que constroem IA também concordam que modelos de IA poderosos devem passar por algum tipo de auditoria e processo de avaliação antes da implantação.

Atualmente, os reguladores em todo o mundo estão correndo para entender a tecnologia e suas ramificações, ao mesmo tempo em que tentam criar regulamentações que protejam os usuários e ainda permitam a inovação.

Recentemente, autoridades da União Europeia sugeriram até mesmo a obrigatoriedade de rotular todo o conteúdo gerado por IA como tal para prevenir a desinformação.

No Reino Unido, um membro da bancada frontal do Partido Trabalhista de oposição ecoou os sentimentos mencionados na carta do Center for AI Safety, afirmando que a tecnologia deveria ser regulamentada como medicamentos e energia nuclear.

Veja mais em: Inteligência artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp