Deepfakes de IA afetarão as eleições presidenciais dos EUA?

Deepfakes de IA afetarão as eleições presidenciais dos EUA?

Os Estados Unidos são uma das muitas nações ao redor do mundo que se preparam para um grande ciclo eleitoral em 2024. Com o advento de ferramentas de inteligência artificial (IA) acessíveis ao público, tem havido um aumento de deepfakes políticos, que exigem que os eleitores adquirir novas habilidades para distinguir o que é real.

O presidente do Comitê de Inteligência do Senado, Mark Warner, disse que a América está menos preparada para a fraude eleitoral nas próximas eleições de 2024 do que estava para a anterior em 2020.

Isso se deve em grande parte ao aumento de deepfakes gerados por IA nos EUA no ano passado. De acordo com dados do SumSub, um serviço de verificação de identidade, a América do Norte viu um aumento de 1.740% em deepfakes, com um aumento de 10x no número de deepfakes detectados em todo o mundo em 2023.

Recentemente, os cidadãos de New Hampshire relataram ter recebido ligações automáticas com a voz do presidente dos EUA, Joe Biden, que lhes dizia para não votarem nas primárias estaduais.

Uma semana depois, este incidente levou os reguladores dos EUA a proibirem vozes geradas por IA usadas em fraudes telefônicas automatizadas, tornando-as ilegais ao abrigo das leis de telemarketing dos EUA.

No entanto, tal como acontece com fraudes de todos os tipos, onde há vontade, há uma maneira, apesar de quaisquer leis em vigor. À medida que os EUA se preparam para as eleições primárias, a preocupação é grande com as informações falsas e falsificações geradas pela IA.

Pavel Goldman Kalaydin, chefe de IA e aprendizado de máquina da SumSub, para entender melhor como os eleitores podem se preparar melhor para detectar deepfakes e lidar com situações de fraude de identidade deepfake.

Kalaydin disse que, apesar do aumento de 10 vezes no número de deepfakes em todo o mundo, ele espera que esse número cresça ainda mais à medida que os países entram em períodos eleitorais.

Ele enfatizou dois tipos de deepfakes que você deve conhecer: um que vem de equipes com experiência em tecnologia que utilizam tecnologia e hardware avançados, como unidades de processamento gráfico de última geração e modelos generativos de IA, que muitas vezes são mais difíceis de detectar, e menor fraudadores de alto nível que usam ferramentas comumente disponíveis em computadores de consumidores.

“É importante que os eleitores estejam atentos ao escrutínio do conteúdo do seu feed e permaneçam cautelosos em relação ao conteúdo de vídeo ou áudio. Os indivíduos devem priorizar a verificação da fonte da informação, distinguindo entre mídias e conteúdos confiáveis e confiáveis de usuários desconhecidos.”

De acordo com o especialista em IA, há uma série de sinais reveladores a serem observados nos deepfakes:

“Se alguma das seguintes características for detectada: movimento não natural das mãos ou dos lábios, fundo artificial, movimento irregular, mudanças na iluminação, diferenças nos tons de pele, padrões incomuns de piscar, má sincronização dos movimentos dos lábios com a fala ou artefatos digitais, o conteúdo é provável gerado.”

No entanto, Kalaydin alertou que a tecnologia continuará a avançar rapidamente e disse que em breve será impossível para o olho humano detectar deepfakes sem tecnologias de detecção dedicadas.

Kalaydin disse que o verdadeiro problema está enraizado na geração de deepfakes e na sua subsequente distribuição. Embora a acessibilidade da IA tenha aberto portas de oportunidades para muitos, a acessibilidade é a culpada pelo aumento de conteúdo falso. Ele adicionou:

“A democratização da tecnologia de IA concedeu acesso generalizado a aplicações de troca facial e a capacidade de manipular conteúdo para construir narrativas falsas.”

Segue-se então a distribuição deste conteúdo deepfaked, com a falta de regulamentos e políticas legais claras que facilitam a propagação de tal desinformação online.

“Isto, por sua vez, deixa os eleitores mal informados, aumentando o risco de tomar decisões mal informadas.”

Ele pediu que as possíveis soluções sejam verificações obrigatórias de IA ou conteúdo deepfaked em plataformas de mídia social para informar os usuários.

“As plataformas precisam aproveitar tecnologias de detecção visual e deepfake para garantir a autenticidade do conteúdo, protegendo os usuários contra desinformação e deepfakes.”

Outra abordagem potencial que ele sugeriu envolveria o emprego de verificação de usuários em plataformas onde os usuários verificados seriam responsáveis pela autenticidade do conteúdo visual, enquanto os usuários não verificados seriam marcados de forma distinta, instando outros a terem cautela ao confiar no conteúdo.

Este clima desconfortável levou governos de todo o mundo a começar a contemplar medidas suficientes. A Índia divulgou um comunicado às empresas de tecnologia locais, dizendo que é necessária aprovação antes de lançar novas ferramentas de IA não confiáveis para uso público antes das eleições de 2024.

Na Europa, a Comissão Europeia criou diretrizes de desinformação sobre IA para plataformas que operam na área, à luz dos múltiplos ciclos eleitorais dos países da região. Pouco depois, a Meta – empresa controladora do Facebook e do Instagram – lançou sua própria estratégia para a União Europeia se unir combater o uso indevido de IA generativa no conteúdo de suas plataformas.

Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp