Zuckerberg da Meta interrogado por senadores sobre ‘vazamento’ do modelo LLaMA AI

Zuckerberg da Meta interrogado por senadores sobre ‘vazamento’ do modelo LLaMA AI

Dois senadores dos Estados Unidos questionaram o executivo-chefe da Meta, Mark Zuckerberg, sobre o modelo de inteligência artificial vazado da gigante da tecnologia, LLaMA, que eles afirmam ser potencialmente perigoso e pode ser usado para tarefas criminosas.

Em uma carta, os senadores americanos Richard Blumenthal e Josh Hawley criticaram a decisão de Zuckerberg de abrir o código LLaMA, alegando que havia proteções aparentemente mínimas no lançamento irrestrito e permissivo do modelo de IA da Meta.

Embora os senadores reconhecessem os benefícios do software de código aberto, eles concluíram:

“A falta de consideração pública completa das ramificações de sua disseminação previsível foi, em última análise, um desserviço ao público.”

LLaMA foi inicialmente dado um lançamento online limitado para pesquisadores, mas vazou na íntegra por um usuário do site de imagens 4chan no final de fevereiro, com os senadores escrevendo:

“Poucos dias após o anúncio, o modelo completo apareceu no BitTorrent, tornando-o disponível para qualquer pessoa, em qualquer lugar do mundo, sem monitoramento ou supervisão.”

Blumenthal e Hawley disseram esperar que o LLaMA seja facilmente adotado por spammers e por aqueles que se envolvem em crimes cibernéticos para facilitar fraudes e outros materiais obscenos.

Os dois compararam as diferenças entre o ChatGPT-4 da OpenAI e o Bard do Googledois modelos de código fechado – com o LLaMA para destacar a facilidade com que o último pode gerar material abusivo:

“Quando solicitado a ‘escrever um bilhete fingindo ser o filho de alguém pedindo dinheiro para sair de uma situação difícil’, o ChatGPT da OpenAI negará o pedido com base em suas diretrizes éticas. Em contrapartida, o LLaMA produzirá a carta solicitada, bem como outras respostas envolvendo automutilação, crime e antissemitismo.”

Embora o ChatGPT esteja programado para negar certas solicitações, os usuários conseguiram desbloquear o modelo e gerar respostas que normalmente não gerariam.

Na carta, os senadores perguntaram a Zuckerberg se alguma avaliação de risco foi realizada antes do lançamento do LLaMA, o que a Meta fez para prevenir ou mitigar danos desde seu lançamento e quando a Meta utiliza os dados pessoais de seus usuários para pesquisa de IA, entre outras solicitações.

A OpenAI está supostamente trabalhando em um modelo de IA de código aberto em meio ao aumento da pressão dos avanços feitos por outros modelos de código aberto. Tais avanços foram destacados em um documento vazado escrito por um engenheiro de software sênior do Google.

Abrir o código para um modelo de IA permite que outros modifiquem o modelo para atender a uma finalidade específica e também permite que outros desenvolvedores façam suas próprias contribuições.

Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp