Please enter CoinGecko Free Api Key to get this plugin works.

Deepfakes de IA enganam eleitores e políticos nos EUA

Deepfakes de IA enganam eleitores e políticos nos EUA

Os cidadãos eleitores de New Hampshire receberam um pedido político incomum no fim de semana. Chamadas robóticas apresentando o que para muitos pareceu a voz do presidente dos Estados Unidos, Joe Biden, disse-lhes para não votarem nas primárias.

As mensagens automatizadas foram aparentemente geradas por uma ferramenta deepfake de inteligência artificial (IA) com o aparente propósito de interferir nas eleições presidenciais de 2024.

De acordo com o áudio gravado pela NBC, os residentes foram orientados a ficar em casa durante as primárias:

“Votar apenas permite aos republicanos na sua busca eleger Donald Trump novamente. Seu voto faz diferença em novembro, não nesta terça.”

O gabinete do procurador-geral do estado emitiu um comunicado denunciando as ligações como desinformação, acrescentando:

“Os eleitores de New Hampshire deveriam desconsiderar totalmente o conteúdo desta mensagem.”

Enquanto isso, um representante do ex-presidente Donald Trump negou qualquer envolvimento do candidato republicano ou de sua campanha.

Os investigadores ainda não parecem ter identificado a origem das chamadas automáticas, mas as investigações estão em andamento.

Em notícias relacionadas, outro escândalo político relacionado ao áudio deepfake ocorreu no fim de semana, quando o áudio gerado por IA imitando o líder democrata de Manhattan, Keith Wright, surgiu. O áudio deepfake apresentava uma imitação da voz de Wright falando mal da colega da Assembleia Democrata, Inez Dickens .

De acordo com uma reportagem, o áudio foi considerado falso por alguns, mas pelo menos um membro político ficou momentaneamente convencido de que era real.

A democrata de Manhattan e ex-presidente da Câmara Municipal, Melissa Mark-Viverito, disse que, a princípio, eles pensaram que as falsificações eram credíveis:

“Eu estava tipo ‘ah, merda’. Achei que era real.”

Os especialistas acreditam que os hackers escolheram falsificações de áudio em vez de vídeo porque os consumidores tendem a ser mais criteriosos quando se trata de falsificação visual. Como disse recentemente o consultor de IA, Henry Ajder, ao Financial Times:

“Todo mundo está acostumado com o Photoshop ou pelo menos sabe que ele existe.”

Não parece haver, no momento, nenhum método universal pelo qual deepfakes possam ser detectados ou dissuadidos. Os especialistas recomendam ter cautela ao interagir com meios de comunicação de fontes desconhecidas ou duvidosas, especialmente quando estão em jogo reivindicações extraordinárias.

Veja mais em: Inteligência Artificial (IA) | Segurança

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp