Em um desenvolvimento significativo para a regulamentação da inteligência artificial (IA) no Brasil, o Presidente da Câmara dos Deputados, Hugo Motta (Republicanos-PB), sinalizou recentemente o início da tramitação do Projeto de Lei (PL) 2338/23. Este projeto de lei, que foi aprovado no Senado em dezembro passado, visa regulamentar as tecnologias de IA no país, estabelecendo disposições importantes sobre governança de IA, avaliações de risco e proteções de direitos.
Motta expressou seu apoio ao avanço do projeto de lei, sinalizando aos deputados do Partido dos Trabalhadores (PT) e do Partido Social Democrata (PSD) que ele seria tratado como uma prioridade do governo. Embora o projeto de lei já esteja em discussão na Câmara dos Deputados, espera-se que ele passe por vários refinamentos antes de ser finalizado.
Os debates em andamento em torno do projeto de lei são críticos, pois os legisladores buscam encontrar um equilíbrio entre promover a inovação e garantir a proteção dos direitos e da privacidade dos cidadãos. Uma das principais discussões envolve a necessidade de melhorar certos aspectos do projeto de lei para abordar preocupações levantadas por especialistas e grupos da sociedade civil.
Paula Guedes, consultora da ONG Artigo 19 Brasil e membro da Coalizão por Direitos na Internet, apontou áreas que precisam de mais esclarecimentos e reforços, particularmente aquelas relacionadas à proteção de direitos, governança e avaliações de risco. De acordo com Guedes:
“Embora o projeto de lei proponha medidas úteis, algumas delas devem ser obrigatórias em vez de meramente recomendadas, para garantir melhor responsabilização dos desenvolvedores e usuários de IA.”
O projeto de lei classifica os sistemas de IA com base no nível de risco que eles representam para a vida humana e os direitos fundamentais. Ele divide as aplicações em duas categorias principais: inteligência artificial e inteligência artificial generativa. Os sistemas que se enquadram nas categorias generativa e de propósito geral seriam obrigados a passar por uma avaliação de risco preliminar antes de serem implantados no mercado. Em contraste, outros sistemas de IA teriam um processo opcional de avaliação de risco.
O objetivo desta avaliação de risco é determinar os perigos potenciais associados aos sistemas de IA, dependendo do uso pretendido e do impacto que eles podem ter. Desenvolvedores, fornecedores e usuários de sistemas de IA seriam responsáveis por conduzir essas avaliações. O projeto de lei estipula que os sistemas de IA que representam um risco excessivo, incluindo armas autônomas e aqueles que criam e distribuem material de abuso sexual infantil, seriam totalmente proibidos.
Além disso, o uso de IA para prever crimes ou avaliar traços de personalidade para tais propósitos é proibido.
Para especialistas em direitos civis como Paula Guedes, essas disposições são cruciais para salvaguardar as liberdades individuais. Guedes enfatizou:
“Regular a IA não é apenas gerenciar a tecnologia, mas também garantir que a privacidade, medidas antidiscriminação, transparência e direitos fundamentais sejam protegidos. A regulamentação dos sistemas de IA deve se concentrar em garantir que essas tecnologias não infrinjam as liberdades pessoais ou exacerbem as desigualdades sociais.”
Juntamente com esses esforços regulatórios, o Brasil também está explorando o uso da IA para melhorar a eficiência do setor público. A Universidade de São Paulo (USP) inaugurou recentemente o Centro de Ciência de Dados para Estatísticas Públicas (CCDEP), que usará inteligência artificial, aprendizado de máquina e big data para dar suporte à gestão pública no Estado de São Paulo. Esta iniciativa visa alavancar tecnologias de IA para otimizar serviços públicos, demonstrar o potencial da IA no setor público e dar o exemplo para outros órgãos governamentais que buscam incorporar soluções de IA.