Projetos de lei de IA têm intenção positiva, mas resultado oneroso

Projetos de lei de IA têm intenção positiva, mas resultado oneroso

Os modelos de inteligência artificial estão avançando em um ritmo notável. Os principais desenvolvedores estão fazendo avanços significativos para aprimorar a capacidade desses modelos de compreender consultas complexas e fornecer resultado mais perspicazes e bem fundamentadas.

Isso foi destacado em um anúncio da OpenAI, os criadores do amplamente conhecido modelo ChatGPT, em relação ao seu novo modelo “Strawberry”.

Este desenvolvimento, também conhecido como série de modelos OpenAI o1, permitirá que as pessoas pensem mais sobre os problemas antes de responder, muito parecido com o que uma pessoa faria.

Os modelos também serão capazes de refinar seu processo de pensamento, tentar estratégias diferentes e reconhecer seus erros.

Embora a IA certamente não esteja dominando o mundo, nem seja esse o objetivo daqueles que desenvolvem a tecnologia, o rápido avanço da tecnologia tem preocupado os legisladores sobre a capacidade de controlar os modelos se eles se tornarem desonestos e implementarem medidas de segurança durante os estágios de desenvolvimento.

Na semana passada, os legisladores da Califórnia continuaram a aprovar projetos de lei relacionados à IA que afetam moradores e desenvolvedores na Califórnia.

Isso inclui o Projeto de Lei da Assembleia 1836, proibindo réplicas não autorizadas geradas por IA de personalidades falecidas sem consentimento prévio para proteger os direitos e semelhanças dos artistas.

No entanto, um dos principais projetos de lei contestados entre os especialistas do setor é o Projeto de Lei do Senado (SB)-1047, também conhecido como “Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira”.

Se aprovado, o projeto de lei impactará principalmente os principais desenvolvedores de IA — como OpenAI, Google e Microsoft — que têm os recursos para desenvolver modelos de IA que exigem mais de 10^26 operações inteiras ou de ponto flutuante (FLOPs) e custam mais de US$100 milhões.

Os desenvolvedores serão obrigados a treinar e ajustar os modelos para implementar os recursos de segurança descritos no projeto de lei. Isso inclui recursos de desligamento do modelo de IA, criação e retenção de um protocolo de segurança por escrito, garantia de auditorias anuais de terceiros e envio de declarações de conformidade e relatórios de incidentes ao procurador-geral da Califórnia.

O projeto de lei está enfrentando reações negativas de desenvolvedores de todos os tamanhos dentro da indústria, que dizem que ele sufoca a inovação.

Dina Blikshteyn, sócia do escritório de advocacia Haynes Boone, disse que o projeto de lei também poderia se estender a pequenos desenvolvedores que ajustam modelos de IA com poder de computação maior ou igual a três vezes 10^25 inteiro ou FLOP e podem pagar um acesso de US$10 milhões.

“O projeto de lei visa prevenir desastres causados ​​por modelos de IA, particularmente por meio da implementação de recursos de desligamento. No entanto, pode não eliminar totalmente os riscos, pois um modelo de IA pode desencadear uma reação em cadeia com consequências prejudiciais mesmo após o desligamento. Embora a intenção do projeto de lei seja positiva, os requisitos para protocolos de segurança, auditorias e relatórios de conformidade podem ser vistos como excessivos, potencialmente impondo divulgações onerosas e demandas burocráticas que podem dificultar a inovação na indústria de IA da Califórnia.”

Atualmente, os Estados Unidos não têm uma estrutura federal em vigor para regular as saídas dos modelos de IA. No entanto, Blikshteyn ressalta que estados como Califórnia e Colorado estão promulgando seus próprios regulamentos.

“As maiores empresas de IA teriam mais mão de obra para lidar com os requisitos do projeto de lei, o que pode ser considerado um dreno nos recursos da empresa menor. Embora seja improvável que grandes empresas de IA deixem a Califórnia, a variação nas leis estaduais e a falta de supervisão federal podem levar desenvolvedores menores a se mudarem ou conduzirem trabalhos de IA em estados com menos regulamentações sobre governança de IA.”

No entanto, Blikshteyn destaca o que muitos na indústria veem como uma verdade:

“A legislação em nível federal que define requisitos básicos para modelos de IA poderosos seria benéfica tanto para consumidores quanto para desenvolvedores. Também forneceria uma linha de base para todos os estados sobre quais são esses requisitos.”

O SB-1047 foi submetido ao governador Newsom em setembro e ainda aguarda uma decisão. Newsom comentou sobre o projeto de lei, dizendo que ele tem trabalhado em regulamentação racional que apoia a tomada de risco, mas não a imprudência. No entanto, ele também expressou preocupação sobre o impacto potencial na competitividade.

Com a Califórnia sendo líder global em inovação tecnológica, suas decisões legais sobre IA são algo que o mundo inteiro está observando com a respiração suspensa.


Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp