Os avanços na inteligência artificial (IA) revolucionaram vários setores, oferecendo oportunidades e eficiências sem precedentes. No entanto, essas inovações também apresentam novos desafios, principalmente em relação ao seu potencial uso indevido por agentes mal-intencionados. Um relatório recente do Threat Intelligence Group (GTIG) do Google esclarece como grupos de ameaças persistentes avançadas (APT) apoiados pelo governo tentaram explorar o chatbot de IA do Google, Gemini, para fins prejudiciais.
Uma das principais preocupações destacadas no relatório é o esforço dos agentes de ameaças para “jailbreak” o Gemini. O jailbreak envolve a elaboração de prompts específicos para contornar os filtros de segurança da IA, permitindo que ela execute tarefas que normalmente é impedida de executar. Essas tarefas podem variar de vazamento de informações confidenciais a geração de conteúdo inseguro. O Google observou que, embora houvesse tentativas de manipular o Gemini usando técnicas básicas, como reformular prompts ou enviar repetidamente a mesma solicitação, esses esforços não tiveram sucesso. Os mecanismos de segurança robustos frustraram essas tentativas.

Além de hackers individuais, o relatório revela que grupos APT, geralmente patrocinados pelo estado, têm buscado o Gemini para várias atividades maliciosas. Essas atividades incluem:
- Coleta de informações: Utilizando o Gemini para coletar dados sobre alvos em potencial, que podem ser usados para espionagem ou outros propósitos maliciosos.
- Pesquisa de vulnerabilidade: Empregando a IA para identificar e explorar vulnerabilidades publicamente conhecidas em sistemas, aumentando assim a eficácia de ataques cibernéticos.
- Tarefas de codificação e script: Usando o Gemini para auxiliar no desenvolvimento de códigos ou scripts maliciosos, agilizando a criação de ferramentas de ataque cibernético.
- Atividades pós-comprometimento: Engajando-se em atividades como evasão de detecção e manutenção de persistência em redes comprometidas.
O relatório menciona especificamente que os atores APT iranianos se concentraram em usar IA para elaborar campanhas de phishing e conduzir reconhecimento em especialistas e organizações de defesa. Da mesma forma, grupos APT chineses utilizaram o Gemini para tarefas como solução de problemas de código, scripts e métodos de pesquisa para obter acesso mais profundo às redes alvo. Os APTs norte-coreanos empregaram o Gemini em vários estágios, incluindo pesquisa e desenvolvimento, e o usaram para explorar tópicos de interesse estratégico para o governo norte-coreano, como o exército sul-coreano e criptomoedas.
O uso indevido de ferramentas de IA como o Gemini por atores patrocinados pelo estado ressalta o cenário em evolução das ameaças cibernéticas. As estratégias tradicionais de defesa cibernética podem ser insuficientes para neutralizar esses adversários sofisticados. A integração da IA em ataques cibernéticos introduz novas complexidades, pois essas ferramentas podem automatizar e aprimorar vários estágios do ciclo de vida do ataque, do reconhecimento à exploração e atividades pós-comprometimento.
Além disso, a acessibilidade de modelos avançados de IA a uma gama mais ampla de atores, incluindo aqueles com intenção maliciosa, representa desafios significativos para a segurança cibernética. Embora a IA tenha o potencial de reforçar mecanismos de defesa, ela também equipa os adversários com ferramentas poderosas para conduzir ataques mais eficazes e eficientes.
O relatório do Google destaca uma questão crítica na intersecção entre IA e segurança cibernética: o potencial de ferramentas de IA serem transformadas em armas por atores patrocinados pelo estado. À medida que a tecnologia de IA continua a avançar, é fundamental que organizações e governos desenvolvam estratégias robustas para mitigar os riscos associados ao seu uso indevido. Isso inclui aprimorar as medidas de segurança de IA, conduzir avaliações de segurança regulares e promover a cooperação internacional para enfrentar os desafios impostos pelas atividades adversárias de IA.