Ex-funcionários dos principais desenvolvedores de inteligência artificial (IA) estão incentivando essas empresas pioneiras de IA a melhorarem suas proteções aos denunciantes. Isto permitiria expressar preocupações relacionadas com os riscos ao público relativamente ao avanço de sistemas sofisticados de IA.
Recentemente, 13 ex-funcionários e atuais funcionários da OpenAI (ChatGPT), Anthropic (Claude) e DeepMind (Google), juntamente com os “Padrinhos da IA” – Yoshua Bengio e Geoffrey Hinton – e o renomado cientista de IA, Stuart Russell, iniciaram o “Right para alertar a petição AI”.
A declaração visa estabelecer um compromisso por parte das empresas fronteiriças de IA para permitir que os funcionários levantem preocupações relacionadas aos riscos sobre a IA internamente e com o público.
William Saunders, antigo funcionário da OpenAI e apoiante do movimento, comentou que, ao lidar com novas tecnologias potencialmente perigosas, deveria haver formas de partilhar informações sobre riscos com especialistas independentes, governos e o público.
“Hoje, as pessoas com mais conhecimento sobre como funcionam os sistemas de IA de fronteira e os riscos relacionados com a sua implantação não são totalmente livres de falar devido a possíveis retaliações e acordos de confidencialidade excessivamente amplos.”
A proposta tem quatro propostas principais para os desenvolvedores de IA, a primeira das quais é eliminar o não desprezo pelos riscos, para que as empresas não silenciem os funcionários com acordos que os impeçam de levantar preocupações sobre os riscos da IA ou de puni-los por fazê-lo.
Visam também estabelecer canais de denúncia anónimos para que os indivíduos levantem preocupações relativamente aos riscos da IA, cultivando assim um ambiente propício à crítica aberta em torno de tais riscos.
Por último, a petição pede a proteção dos denunciantes, na qual as empresas não retaliarão contra funcionários que divulguem informações para expor riscos graves de IA.
Saunders disse que os princípios propostos são uma forma proativa de interagir com empresas de IA para obter a IA segura e benéfica que é necessária.
A petição surge no momento em que aumentam as preocupações com a “despriorização” dos laboratórios de IA em relação à segurança dos seus modelos mais recentes, especialmente face à inteligência artificial geral (AGI), que tenta criar software com inteligência semelhante à humana e capacidade de autoaprendizagem.
O ex-funcionário da OpenAI, Daniel Kokotajlo, disse que decidiu deixar a empresa porque perdeu a esperança de que eles agiriam com responsabilidade, especificamente em relação à criação de AGI.
“Eles e outros aderiram à abordagem ‘agir rapidamente e quebrar as coisas’ e isso é o oposto do que é necessário para uma tecnologia tão poderosa e tão mal compreendida.”
Em maio, Helen Toner, ex-membro do conselho da OpenAI, disse durante um podcast que o CEO da OpenAI, Sam Altman, teria sido demitido da empresa por supostamente reter informações do conselho.
