Please enter CoinGecko Free Api Key to get this plugin works.

Imagem gerada por IA causa problemas no mercado de ações

Imagem gerada por IA da explosão do Pentágono causa gagueira no mercado de ações

Uma imagem falsificada de uma explosão perto do Pentágono revelou novamente o poder do engano alimentado por inteligência artificial – e foi o suficiente para fazer com que o mercado de ações caísse brevemente.

Em 22 de maio, a agora suspensa conta verificada do Twitter “Bloomberg Feed” – fingindo ser afiliada ao conglomerado de mídia – compartilhou a imagem relatando uma “grande explosão” perto do Pentágono, sede do Departamento de Defesa dos Estados Unidos.

O relatório falso rapidamente ganhou força e foi compartilhado por vários meios de comunicação, incluindo o meio de comunicação controlado pelo estado russo Russia Today para seus 3 milhões de seguidores no Twitter e a mídia indiana Republic para seus 2,8 milhões de seguidores no Twitter.

Ambos, desde então, deletaram seus respectivos tweets sobre a história.

As autoridades locais, incluindo a Agência de Proteção da Força do Pentágono, responsável pela segurança do prédio, disseram estar cientes do relatório que circulava e confirmaram que “não houve explosão ou incidente”.

Vários usuários do Twitter apontaram inconsistências na imagem que indicavam que ela foi feita por IA, destacando que a fachada do prédio não era uniforme e duas cercas diferentes mostradas na imagem pareciam se fundir.

Devido às notícias, o S&P 500 caiu brevemente 0,26%, mas se recuperou rapidamente depois que foi revelado como falso.

As ferramentas de IA já foram usadas na criação de notícias falsas e conteúdo enganoso. No início de maio, o jornal irlandês The Irish Times se desculpou depois de ter sido enganado ao publicar um artigo enviado gerado pela IA.

Em abril, o regulador financeiro da Califórnia reprimiu os supostos serviços de negociação de criptomoedas e alegou que algumas das empresas usavam avatares gerados por IA para atuar como seus CEOs em vídeos promocionais.

“Deepfakes” criados por IA de figuras da indústria cripto têm sido frequentemente usados na tentativa de perpetrar golpes.

Um exemplo notável foi um vídeo falso do cofundador da FTX, Sam Bankman-Fried, que circulou logo após o colapso da bolsa e tentou direcionar os usuários da FTX para um site malicioso sob a promessa de um “brinde”.

Veja mais em: Inteligência Artificial | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp