Pesquisadores de inteligência artificial estão preocupados que os bots de IA eventualmente dominem a internet e se espalhem como uma espécie invasora digital. Em vez de abordar o problema tentando limitar a proliferação de bots e conteúdo gerado por IA, uma equipe decidiu ir na direção oposta.
Em um artigo de pré-impressão publicado recentemente, dezenas de pesquisadores defendem um sistema pelo qual os humanos precisariam ter sua humanidade verificada pessoalmente por outro humano para obter credenciais de personalidade.
A grande ideia parece ser a criação de um sistema em que alguém pudesse provar que é humano sem ter que revelar sua identidade ou qualquer outra informação. Se isso soa familiar para aqueles na comunidade criptográfica, é porque a pesquisa é baseada em tecnologias de blockchain de “prova de personalidade”.
Serviços como Netflix ou Xbox Game Pass que exigem uma taxa para usar normalmente dependem das instituições financeiras dos usuários para realizar serviços de verificação. Isso não permite anonimato, mas para a maioria das pessoas, isso é bom. Normalmente é considerado parte do custo de fazer negócios.
Outros serviços, como fóruns anônimos, que não podem confiar nos pagamentos de um usuário como prova de que ele é humano ou, no mínimo, um cliente não humano em situação regular, precisam tomar medidas para limitar bots e contas duplicadas.
A partir de agosto de 2024, por exemplo, as proteções do ChatGPT provavelmente impediriam que ele fosse explorado para se inscrever em várias contas gratuitas do Reddit. Algumas IAs podem superar os verificadores de humanidade do estilo “CAPTCHA“, mas seria necessário um esforço robusto para que alguém pudesse seguir as etapas associadas à verificação de um endereço de email e continuar o processo de configuração para abrir uma conta.
No entanto, o principal argumento apresentado pela equipe — que incluía uma ladainha de especialistas de empresas como OpenAI, Microsoft e a16z, bem como instituições acadêmicas, incluindo Harvard Society of Fellows, Oxford e MIT — era que as limitações atuais em vigor só durariam por um tempo.
Em questão de anos, talvez, a humanidade possa se deparar com a realidade de que, sem poder olhar alguém nos olhos, cara a cara, não haveria como determinar se alguém está se envolvendo com uma pessoa ou não.
Os pesquisadores estão defendendo o desenvolvimento de um sistema que designaria certas organizações ou instalações como emissoras. Esses emissores empregariam humanos com o propósito de confirmar a humanidade de um indivíduo. Uma vez verificado, o emissor certificaria as credenciais do indivíduo. Presumivelmente, o emissor seria limitado de rastrear como essas credenciais foram usadas. Não está claro como um sistema poderia ser tornado robusto contra-ataques cibernéticos e a ameaça iminente de descriptografia assistida.
Na outra ponta, organizações interessadas em fornecer serviços a humanos verificados poderiam escolher emitir contas apenas para humanos que tivessem credenciais. Aparentemente, isso limitaria todos a uma conta por pessoa e tornaria impossível para bots obterem acesso a esses serviços.
De acordo com o artigo, está além do escopo da pesquisa determinar qual método de pseudo-anonimato centralizado seria o mais eficaz, nem a pesquisa aborda a miríade de problemas potenciais levantados por tal esquema. No entanto, a equipe reconhece esses desafios e apresentou um chamado à ação para um estudo mais aprofundado.
