Estudantes da USP desenvolveram um chatbot de inteligência artificial voltado ao combate à desinformação no WhatsApp. Batizada de “Tá certo isso AI?”, a ferramenta permite que usuários encaminhem mensagens suspeitas para análise automática e recebam resposta com base em fontes confiáveis. A guerra contra fake news agora também passa pelo celular. O lançamento ganha peso especial em ano eleitoral, quando o volume de conteúdos enganosos tende a crescer.
O projeto foi criado por alunos do Instituto de Ciências Matemáticas e de Computação (ICMC), em São Carlos, interior de São Paulo. A solução utiliza IA multimodal, capaz de interpretar texto, imagem, áudio, vídeo e links simultaneamente. Não é só um robô que lê mensagens, é um sistema que cruza formatos diferentes. Isso amplia a capacidade de checagem em uma era em que desinformação circula por montagens, áudios editados e vídeos manipulados.
Segundo os desenvolvedores, o funcionamento é simples: o usuário encaminha ao bot o conteúdo que deseja verificar, como faria ao repassar para outro contato. Em seguida, recebe um parecer indicando quantas afirmações parecem verdadeiras, falsas ou inconclusivas, além das referências consultadas. A proposta é transformar o hábito de compartilhar no hábito de conferir. Em um ambiente dominado pela velocidade, reduzir fricção no processo de checagem é peça central.
O projeto venceu o programa AI4Good, iniciativa ligada à Brazil Conference, organizada por estudantes brasileiros nos Harvard University e MIT. Com isso, os criadores foram convidados a apresentar a ferramenta em Cambridge, nos Estados Unidos. Uma solução local ganhou vitrine global. O reconhecimento também reforça o potencial brasileiro em aplicações práticas de IA.
Para o advogado eleitoralista Wilson Judice Maria Neto, ferramentas desse tipo podem auxiliar tanto eleitores quanto a própria Justiça Eleitoral. Ele argumenta que seria inviável enfrentar o volume de conteúdos produzidos por inteligência artificial sem usar tecnologia equivalente do outro lado. Combater IA com planilha seria perder antes de começar. O comentário reflete preocupação crescente com uso político de sistemas generativos em campanhas.
O Brasil já conviveu nos últimos ciclos com ondas de boatos virais em aplicativos fechados. Diferentemente de redes abertas, plataformas privadas dificultam monitoramento público e resposta rápida. Quando a mentira circula em grupos fechados, ela ganha vantagem inicial. Por isso, soluções de checagem integradas ao WhatsApp podem ter impacto relevante ao atuar no mesmo ambiente onde o conteúdo se espalha.
Ao mesmo tempo, especialistas alertam que nenhum chatbot resolve sozinho o problema da desinformação. Sistemas automáticos podem errar, interpretar contexto de forma incompleta ou não encontrar fontes suficientes em temas emergentes. Ferramenta útil não significa árbitro infalível. Transparência metodológica e revisão contínua serão essenciais para credibilidade do projeto.
A iniciativa também sinaliza uma mudança mais ampla no uso corporativo e institucional da IA no país. Levantamentos recentes mostram crescimento da adoção de inteligência artificial em empresas brasileiras, inclusive em áreas operacionais e financeiras. A IA deixou de ser promessa futurista e virou infraestrutura cotidiana. Agora, essa infraestrutura começa a migrar também para cidadania digital e defesa informacional.
Se ganhar escala, o “Tá certo isso AI?” pode se tornar exemplo relevante de tecnologia aplicada ao interesse público. Em vez de apenas gerar conteúdo, a IA passa a ser usada para verificar conteúdo. Na era da superprodução de informação, confiança virou ativo escasso.


