Ataques de deepfake com IA se estenderão além de vídeos e áudio

Ataques de deepfake com IA se estenderão além de vídeos e áudio

À medida que os golpes de deepfake com inteligência artificial se tornam mais prevalentes, as empresas de segurança alertam que o método de ataque pode se estender além de vídeo e áudio.

A empresa de software, Gen Digital, relatou que atores mal-intencionados usando golpes de deepfake com IA para fraudar detentores de criptomoedas aumentaram as operações no segundo trimestre de 2024.

A empresa disse que o grupo de golpistas chamado “CryptoCore” já havia fraudado mais de US$5 milhões em criptomoedas usando deepfakes de IA.

Embora o valor pareça baixo em comparação com outros métodos de ataque no espaço criptográfico, os profissionais de segurança acreditam que os ataques de deepfake com IA podem se expandir ainda mais, ameaçando a segurança dos ativos digitais.

A empresa de segurança Web3, CertiK, acredita que os golpes de deepfake com IA se tornarão mais sofisticados. Um representante da CertiK disse que também pode se expandir além de vídeos e gravações de áudio no futuro.

O representante explicou que o vetor de ataque poderia ser usado para enganar carteiras que usam reconhecimento facial para dar acesso a hackers:

“Por exemplo, se uma carteira depende de reconhecimento facial para proteger informações críticas, ela deve avaliar a robustez de sua solução contra ameaças impulsionadas por IA.”

O representante disse que é importante que os membros da comunidade criptográfica se tornem cada vez mais conscientes de como esse ataque funciona.

Luis Corrons, um evangelista de segurança da empresa de segurança cibernética Norton, acredita que os ataques movidos por IA continuarão a ter como alvo os detentores de criptomoedas. Corrons observou que as criptomoedas geram recompensas financeiras significativas e riscos menores para os hackers. Ele disse:

“As transações de criptomoedas geralmente têm alto valor e podem ser conduzidas anonimamente, tornando-as um alvo mais atraente para os cibercriminosos, pois ataques bem-sucedidos geram recompensas financeiras mais significativas e menor risco de detecção.”

Além disso, Corrons disse que as criptomoedas ainda carecem de regulamentações, dando aos cibercriminosos menos consequências legais e mais oportunidades de ataque.

Embora ataques com tecnologia de IA possam ser uma grande ameaça para usuários de criptomoedas, profissionais de segurança acreditam que há maneiras de os usuários se protegerem desse tipo de ameaça. De acordo com um representante da CertiK, a educação seria um bom lugar para começar.

Um engenheiro da CertiK explicou que conhecer as ameaças e as ferramentas e serviços disponíveis para combatê-las é importante. Além disso, o profissional também acrescentou que ter cuidado com solicitações não solicitadas também é importante. Eles disseram:

“Ser cético em relação a solicitações não solicitadas de dinheiro ou informações pessoais é crucial, e habilitar a autenticação multifator para contas confidenciais pode ajudar a adicionar uma camada extra de proteção contra esses golpes.”

Enquanto isso, Corrons acredita que há sinais de alerta que os usuários podem tentar identificar para evitar golpes de deepfake de IA. Isso inclui movimentos oculares, expressões faciais e movimentos corporais não naturais.

Além disso, a falta de emoção também pode ser um grande sinal.

“Você também pode detectar morphing facial ou pontos de imagem se o rosto de alguém não parece exibir a emoção que deveria acompanhar o que eles supostamente estão dizendo.”

Além disso, o executivo disse que formas corporais estranhas, desalinhamentos e inconsistências no áudio devem ajudar os usuários a determinar se estão olhando para um deepfake de IA ou não.


Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp