O Departamento de Justiça (DOJ) dos Estados Unidos solicitou à Comissão de Sentenças que atualizasse suas diretrizes para fornecer penalidades adicionais para crimes cometidos com o auxílio de inteligência artificial.
De acordo com um alerta legal publicado pelos escritórios de advocacia, White & Case, as recomendações buscam expandir muito além das diretrizes estabelecidas e se aplicariam não apenas a crimes cometidos com IA, mas a qualquer crime auxiliado ou instigado por algoritmos simples.
As diretrizes atuais, de acordo com o alerta legal, cobrem apenas os chamados sistemas sofisticados. Aparentemente, as novas diretrizes tornariam a IA envolvida em atividades criminosas um acessório, com o sistema legal punindo a pessoa responsável por sua aplicação à atividade criminosa.
O documento não forneceu circunstâncias específicas, mas citou preocupações de que a tecnologia atualmente disponível ao público poderia tornar certas atividades criminosas mais fáceis, ampliar seu escopo e escala potenciais e ajudar os infratores a evitar detecção e apreensão.
A comissão de sentenças não é obrigada por lei a aceitar as recomendações do Departamento de Justiça, no entanto, seu mandato exige sua consideração.
Se as recomendações fossem aprovadas, certos crimes — com ênfase provável naqueles frequentemente considerados crimes de colarinho branco — seriam elegíveis para um aumento de pena se os supostos perpetradores fossem condenados.
Os aumentos de pena são basicamente fatores atenuantes extras que um juiz considera ao decidir sobre a rigidez de uma determinada pena. Nos EUA, os juízes geralmente têm margem de manobra a seu critério pessoal quando se trata de sentença.
No caso de um crime em que um juiz pode decidir que o uso de IA é um fator de aumento, por exemplo, um réu que pode ter recebido uma pena mínima receberia a pena mínima mais uma pena adicional atribuída ao aumento.
Embora o sistema de justiça esteja começando a se adaptar ao mundo moderno da IA no nível criminal individual, ainda existe muito pouco em termos de regulamentação e política voltadas para desenvolvedores e editores de IA.
As empresas nos EUA, por exemplo, enfrentaram uma série de ações coletivas e processos individuais sobre seu suposto uso de dados pessoais para treinar sistemas de IA sem consentimento expresso. Mas, até onde sabemos, o governo dos EUA não regula atualmente o uso de dados pessoais para treinar modelos de IA.
Na UE, no entanto, várias grandes empresas de tecnologia sediadas nos EUA enfrentaram dezenas de processos e multas enormes pelo mesmo uso de dados.
