A empresa de inteligência artificial, OpenAI, revelou que identificou e interrompeu várias campanhas online que aproveitaram a sua tecnologia para manipular a opinião pública em todo o mundo.
Sam Altman fundou a empresa de IA, OpenAI, e afirmou:
“Encerramos contas vinculadas a operações de influência secreta. Nos últimos três meses, interrompemos cinco IO (operações de influência) secretas que procuravam usar nossos modelos para apoiar atividades enganosas na Internet.”
Os malfeitores usaram IA para gerar comentários para artigos, criar nomes e biografias para contas de mídia social e traduzir e revisar textos.
A empresa por trás do ChatGPT afirmou que uma operação chamada “Spamouflage” usou OpenAI para pesquisar mídias sociais e gerar conteúdo multilíngue em plataformas como X, Medium e Blogspot na tentativa de manipular a opinião pública ou influenciar resultados políticos.
Também usou IA para depurar código e gerenciar bancos de dados e sites.

Além disso, uma operação chamada “Bad Grammar” teve como alvo a Ucrânia, a Moldávia, os Estados Bálticos e os Estados Unidos, utilizando modelos OpenAI para executar bots do Telegram e gerar comentários políticos.
Outro grupo chamado ‘Doppelganger’ utilizou modelos de IA para gerar comentários em inglês, francês, alemão, italiano e polaco que foram publicados no X e no 9GAG, também concebidos para manipular a opinião pública.

A OpenAI também mencionou um grupo chamado “União Internacional de Mídia Virtual” que usava a tecnologia para gerar artigos longos, manchetes e conteúdo de site publicado em seu site vinculado.
A OpenAI disse que também interrompeu uma empresa comercial chamada STOIC, que usava IA para gerar artigos e comentários em plataformas de mídia social como Instagram, Facebook, X e sites associados à operação.
A OpenAI explicou que o conteúdo postado por essas diversas operações se concentrava em uma ampla gama de questões:
“Incluindo a invasão da Ucrânia pela Rússia, o conflito em Gaza, as eleições indianas, a política na Europa e nos Estados Unidos e as críticas ao governo chinês por parte de dissidentes chineses e governos estrangeiros.”
Ben Nimmo, investigador principal da OpenAI que escreveu o relatório, disse ao The New York Times:
“Nossos estudos de caso fornecem exemplos de algumas das campanhas de influência mais amplamente divulgadas e mais antigas que estão ativas atualmente.”
O meio de comunicação também informou que foi a primeira vez que uma grande empresa de IA revelou como suas ferramentas específicas foram usadas para fraude online.
“Até agora, estas operações não parecem ter beneficiado de um aumento significativo do envolvimento ou alcance do público como resultado dos nossos serviços.”
