Uma imagem falsificada de uma explosão perto do Pentágono revelou novamente o poder do engano alimentado por inteligência artificial – e foi o suficiente para fazer com que o mercado de ações caísse brevemente.
Em 22 de maio, a agora suspensa conta verificada do Twitter “Bloomberg Feed” – fingindo ser afiliada ao conglomerado de mídia – compartilhou a imagem relatando uma “grande explosão” perto do Pentágono, sede do Departamento de Defesa dos Estados Unidos.
Prime example of the dangers in the pay-to-verify system: This account, which tweeted a (very likely AI-generated) photo of a (fake) story about an explosion at the Pentagon, looks at first glance like a legit Bloomberg news feed. pic.twitter.com/SThErCln0p
— Andy Campbell (@AndyBCampbell) May 22, 2023
O relatório falso rapidamente ganhou força e foi compartilhado por vários meios de comunicação, incluindo o meio de comunicação controlado pelo estado russo Russia Today para seus 3 milhões de seguidores no Twitter e a mídia indiana Republic para seus 2,8 milhões de seguidores no Twitter.
Ambos, desde então, deletaram seus respectivos tweets sobre a história.
So @republic aired a 'Live & Breaking' news of Pentagon explosion image. They even invited Prof. Madhav Nalapat "strategic expert" to discuss about the explosion.
BWT, It was an AI generated image. pic.twitter.com/8j1nfSJR6x— Mohammed Zubair (@zoo_bear) May 22, 2023
As autoridades locais, incluindo a Agência de Proteção da Força do Pentágono, responsável pela segurança do prédio, disseram estar cientes do relatório que circulava e confirmaram que “não houve explosão ou incidente”.
@PFPAOfficial and the ACFD are aware of a social media report circulating online about an explosion near the Pentagon. There is NO explosion or incident taking place at or near the Pentagon reservation, and there is no immediate danger or hazards to the public. pic.twitter.com/uznY0s7deL
— Arlington Fire & EMS (@ArlingtonVaFD) May 22, 2023
Vários usuários do Twitter apontaram inconsistências na imagem que indicavam que ela foi feita por IA, destacando que a fachada do prédio não era uniforme e duas cercas diferentes mostradas na imagem pareciam se fundir.
Confident that this picture claiming to show an "explosion near the pentagon" is AI generated.
Check out the frontage of the building, and the way the fence melds into the crowd barriers. There's also no other images, videos or people posting as first hand witnesses. pic.twitter.com/t1YKQabuNL
— Nick Waters (@N_Waters89) May 22, 2023
Devido às notícias, o S&P 500 caiu brevemente 0,26%, mas se recuperou rapidamente depois que foi revelado como falso.
As ferramentas de IA já foram usadas na criação de notícias falsas e conteúdo enganoso. No início de maio, o jornal irlandês The Irish Times se desculpou depois de ter sido enganado ao publicar um artigo enviado gerado pela IA.
Em abril, o regulador financeiro da Califórnia reprimiu os supostos serviços de negociação de criptomoedas e alegou que algumas das empresas usavam avatares gerados por IA para atuar como seus CEOs em vídeos promocionais.
“Deepfakes” criados por IA de figuras da indústria cripto têm sido frequentemente usados na tentativa de perpetrar golpes.
Um exemplo notável foi um vídeo falso do cofundador da FTX, Sam Bankman-Fried, que circulou logo após o colapso da bolsa e tentou direcionar os usuários da FTX para um site malicioso sob a promessa de um “brinde”.