Elon Musk, empreendedor bilionário, mais uma vez gerou polêmica, desta vez com sua visão ousada para o futuro da inteligência artificial. Em uma publicação, Musk anunciou que sua empresa de IA, a xAI, planeja usar seu modelo de próxima geração, o Grok 3.5, para revisar e substituir fundamentalmente as bases de conhecimento existentes — reescrevendo todo o corpus do conhecimento humano.
Musk afirmou que os conjuntos de dados atuais usados para treinar grandes modelos de IA estão repletos de lixo e imprecisões factuais. Sua solução proposta é primeiro fazer com que a Grok reescreva essa base de conhecimento fundamental para corrigir erros e omissões percebidos e, em seguida, retreiná-la com essa versão revisada.
No X, anteriormente conhecido como Twitter, Musk disse:
“Há muito lixo em qualquer modelo fundamental treinado com dados não corrigidos. A Grok contaria com recursos de raciocínio avançado que lhe permitiriam eliminar informações incorretas e preencher os fatos ausentes.”
O anúncio de Musk está em linha com seus esforços contínuos para posicionar a Grok como uma alternativa “anti-woke” a sistemas de IA como o ChatGPT da OpenAI, empresa que Musk cofundou em 2015 antes de sair devido a disputas de governança. Musk tem criticado consistentemente a OpenAI e outros modelos líderes por serem politicamente tendenciosos, alegando que eles censuram ou omitem pontos de vista que ele considera legítimos, mas politicamente incorretos.
No entanto, essa visão de neutralidade ideológica atraiu críticas intensas — particularmente quando combinada com o plano de Musk de obter declarações politicamente incorretas, mas factualmente verdadeiras de usuários do X para ajudar a treinar a Grok.
Como esperado, as respostas ao chamado de Musk para submissões foram rapidamente preenchidas com conteúdo extremista, teorias da conspiração e pseudociência desmascarada, incluindo distorção do Holocausto, desinformação antivacina, negação das mudanças climáticas e falsidades de cunho racial — destacando os riscos de contribuições não moderadas em sistemas de IA.
A proposta de Musk de reconstruir a Grok usando uma versão reescrita e filtrada do conhecimento humano foi rapidamente condenada por especialistas em ética da IA e filosofia da ciência.
Gary Marcus, professor emérito da NYU e fundador da startup Robust.AI, disse:
“Você não conseguiu alinhar a Grok com suas próprias crenças pessoais, então você vai reescrever a história para adequá-la às suas visões. Direto de 1984.”
Bernardino Sassoli de’ Bianchi, professor da Universidade de Milão especializado em lógica e filosofia da ciência, ecoou o alarme em uma publicação no LinkedIn.
“Quando bilionários poderosos tratam a história como maleável simplesmente porque os resultados não se alinham com suas crenças, não estamos mais lidando com inovação — estamos enfrentando controle narrativo. Reescrever dados de treinamento para corresponder à ideologia é errado em todos os níveis concebíveis.”
Os críticos apontam que a proposta de Musk vai além da correção de erros factuais. Se o Grok for usado para reescrever conjuntos de dados existentes com base em noções subjetivas de “verdade”, o resultado poderá ser a criação de uma IA com filtros ideológicos, que reflita a visão de mundo pessoal de Musk em vez da realidade objetiva.
Isso levanta profundas questões éticas e epistemológicas: quem decide o que conta como “verdade”? E se uma empresa privada com enorme influência tem o poder de remodelar os dados de treinamento de IA, quais salvaguardas existem para evitar revisionismo histórico, viés ou propaganda?
Esses temores não são infundados. Pesquisas mostram que vieses em dados de treinamento podem afetar drasticamente o comportamento da IA, e a maioria dos sistemas de IA atualmente luta contra a desinformação, particularmente em tópicos controversos como política, saúde e história.
Desde a aquisição do Twitter em 2022, Musk reduziu drasticamente os esforços de moderação na plataforma, resultando em uma explosão de desinformação, discurso de ódio e conteúdo extremista, conforme documentado por grupos de fiscalização.
Musk defendeu isso introduzindo o recurso “Notas da Comunidade”, que permite aos usuários adicionar contexto ou correções a postagens enganosas. No entanto, os críticos argumentam que essa abordagem de crowdsourcing é insuficiente e vulnerável à manipulação.
Aplicar uma abordagem semelhante ao treinamento de IA — especialmente por meio do crowdsourcing de “fatos” de usuários online não verificados — levanta novos alertas éticos.
Apesar da reação negativa, Musk parece não se deixar abater. O Grok 3.5 deve ser lançado em breve, com a xAI continuando sua missão de desafiar os sistemas de IA tradicionais. À medida que os limites entre a correção factual e a reescrita ideológica se confundem, a questão não é apenas se Musk pode construir um tipo diferente de IA, a questão é se ele deve ou não.