A Argentina está pronta para desenvolver uma força-tarefa especializada usando inteligência artificial para identificar e impedir crimes futuros dentro do país.
O Ministério da Segurança da Argentina anunciou a criação da Unidade de Inteligência Artificial Aplicada para Segurança (UIAAS), liderada pelo diretor de crimes cibernéticos e assuntos cibernéticos, juntamente com membros da Polícia Federal Argentina e forças de segurança.
De acordo com uma declaração recente:
“Uma das principais tarefas do grupo será usar algoritmos de aprendizado de máquina para analisar dados históricos de crimes para prever crimes futuros e ajudar a preveni-los.”
Os crimes de interesse para a UIAAS variam amplamente. Um foco principal é identificar potenciais ameaças cibernéticas detectando padrões incomuns em redes de computadores, incluindo malware, phishing e outros tipos de ataques cibernéticos.
Ele também lidará com tarefas mais perigosas, como desarmamento de bombas, e tentará melhorar a velocidade da comunicação entre a polícia e as equipes de segurança relevantes.
Monitorar a atividade de mídia social também foi mencionado como um método para detectar quaisquer sinais de comunicação sobre potenciais crimes futuros.
“Analise as atividades de mídia social para detectar potenciais ameaças, identificar movimentos de grupos criminosos ou prever distúrbios.”
Alguns recorreram às mídias sociais para argumentar que isso pode não ser benéfico a longo prazo.
O conhecido engenheiro de software americano, Grady Booch, afirmou que não terminará bem.
O engenheiro de software de computador, David Arnal, disse:
“A Argentina está usando IA para combater o crime, mas a que custo para a privacidade?”
Derrick Broze disse:
“Mais uma vez, onde estão os apoiadores do Milei nisso?”
Isso segue as notícias recentes de que o governo dos Estados Unidos está investigando a OpenAI, a criadora do ChatGPT, para obter mais informações sobre seus padrões de segurança.
Em julho, membros do Partido Democrata do Senado dos Estados Unidos e um legislador independente enviaram uma carta ao CEO da OpenAI, Sam Altman, sobre os padrões de segurança da empresa e práticas de emprego para denunciantes.
A parte mais significativa da carta, obtida primeiramente pelo The Washington Post, foi o item 9, que dizia:
“A OpenAI se comprometerá a disponibilizar seu próximo modelo de fundação para as agências do governo dos EUA para testes, revisão, análise e avaliação pré-implantação?”
Enquanto isso, a Assembleia Geral das Nações Unidas recentemente endossou uma resolução sobre IA.
A resolução — iniciada pelos Estados Unidos e apoiada por 123 países, incluindo a China — foi adotada em março, encorajando os países a salvaguardar os direitos humanos, proteger dados pessoais e monitorar a IA quanto a riscos.