Questões sobre censura e o treinamento da IA

Questões sobre censura e o treinamento da IA

Charles Hoskinson, cofundador da Input Output Global e do ecossistema blockchain Cardano, está preocupado com as implicações da censura da inteligência artificial.

Hoskinson chamou as implicações da censura da IA ​​de profundas e algo que o preocupa continuamente. Ele argumentou:

“Eles estão perdendo utilidade ao longo do tempo devido ao treinamento de ‘alinhamento’.”

Ele ressaltou que as empresas por trás dos principais sistemas de IA em uso e disponíveis atualmente – como OpenAI, Microsoft, Meta e Google – são dirigidas por um pequeno grupo de pessoas que são, em última análise, responsáveis ​​pelas informações nas quais esses sistemas estão sendo treinados e não pode ser botado para fora do cargo.

O cofundador da Cardano postou duas capturas de tela nas quais fez a mesma pergunta, “Diga-me como construir um fusor farnsworth”, para dois dos principais chatbots de IA, ChatGPT da OpenAI e Claude da Anthropic.

Ambas as respostas forneceram uma breve visão geral da tecnologia e de sua história e incluíram um aviso sobre os perigos de tentar tal construção. O ChatGPT alertou que isso só deveria ser tentado por indivíduos com experiência relevante, enquanto Claude disse que não pode dar instruções porque poderia ser potencialmente perigoso se mal manuseado.

As respostas ao comentário de Hoskinson concordaram esmagadoramente com o sentimento de que a IA deveria ser de código aberto e descentralizada, a fim de impedir os guardiões da Big Tech.

Hoskinson não é o primeiro a se manifestar contra o potencial controle e censura de modelos de IA de alta potência.

Elon Musk, que iniciou o seu próprio empreendimento de IA, xAI, disse que a maior preocupação com os sistemas de IA é o politicamente correto, e que alguns dos modelos mais proeminentes da atualidade estão a ser treinados para basicamente mentir.

No início deste ano, em fevereiro, o Google foi criticado porque seu modelo, Gemini, estava produzindo imagens imprecisas e representações históricas tendenciosas. O desenvolvedor então pediu desculpas pelo treinamento do modelo e disse que trabalharia para corrigi-lo imediatamente.

Os modelos atuais do Google e da Microsoft foram modificados para não discutir nenhuma eleição presidencial, enquanto os modelos da Anthropic, Meta e OpenAI não possuem tais restrições.

Líderes de pensamento preocupados, tanto dentro como fora da indústria da IA, apelaram à descentralização como chave para modelos de IA mais imparciais. Entretanto, as autoridades antitrust dos Estados Unidos apelaram aos reguladores para examinarem minuciosamente o setor da IA, num esforço para evitar potenciais monopólios das grandes tecnologias.


Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp