Please enter CoinGecko Free Api Key to get this plugin works.

OpenAI e Microsoft unem forças para prevenir ataques cibernéticos

OpenAI e Microsoft unem forças para prevenir ataques cibernéticos

OpenAI, o desenvolvedor por trás do chatbot de inteligência artificial (IA) ChatGPT, colaborou com seu principal investidor, a Microsoft, para evitar cinco ataques cibernéticos vinculados a diferentes atores maliciosos.

De acordo com um relatório, a Microsoft monitorou grupos de hackers ligados à inteligência militar russa, à Guarda Revolucionária do Irã e aos governos chinês e norte-coreano, que afirma terem explorado o uso de modelos de linguagem grande (LLMs) de IA em suas estratégias de hacking.

Os LLMs utilizam vastos conjuntos de dados de texto para criar respostas que parecem humanas.

A OpenAI informou que os cinco ataques cibernéticos tiveram origem em dois grupos associados à China: Charcoal Typhoon e Salmon Typhoon. Os ataques foram ligados ao Irã através do Crimson Sandstorm, à Coreia do Norte através do Emerald Sleet e à Rússia através do Forest Blizzard.

Os grupos tentaram empregar o ChatGPT-4 para pesquisar ferramentas corporativas e de segurança cibernética, depurar código, gerar scripts, conduzir campanhas de phishing, traduzir documentos técnicos, evitar detecção de malware e estudar comunicação por satélite e tecnologia de radar, de acordo com a OpenAI.

As contas foram desativadas após a detecção.

A empresa revelou a descoberta ao implementar uma proibição geral de grupos de hackers apoiados pelo Estado que utilizam produtos de IA. Embora a OpenAI tenha evitado eficazmente estas ocorrências, reconheceu o desafio de evitar qualquer utilização maliciosa dos seus programas.

Após uma onda de deepfakes e golpes gerados por IA após o lançamento do ChatGPT, os legisladores intensificaram o escrutínio dos desenvolvedores de IA generativa. Em junho de 2023, a OpenAI anunciou um programa de subsídios de segurança cibernética de US$1 milhão para aprimorar e medir o impacto das tecnologias de segurança cibernética baseadas em IA.

Apesar dos esforços da OpenAI em segurança cibernética e na implementação de salvaguardas para evitar que o ChatGPT gere respostas prejudiciais ou inadequadas, os hackers encontraram métodos para contornar essas medidas e manipular o chatbot para produzir tal conteúdo.

Mais de 200 entidades, incluindo OpenAI, Microsoft, Anthropic e Google, colaboraram recentemente com a administração Biden para estabelecer o AI Safety Institute e o United States AI Safety Institute Consortium (AISIC). Os grupos foram criados como resultado da ordem executiva do presidente Joe Biden sobre segurança da IA no final de outubro de 2023, que visa promover o desenvolvimento seguro da IA, combater deepfakes gerados pela IA e resolver problemas de segurança cibernética.

Veja mais em: Segurança | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp