Please enter CoinGecko Free Api Key to get this plugin works.

OpenAI terá que cumprir leis da União Europeia

OpenAI terá que cumprir leis da União Europeia

A OpenAI pode enfrentar em breve seu maior desafio regulatório, já que as autoridades italianas insistem que a empresa cumpra as leis locais e europeias de proteção de dados e privacidade, uma tarefa que especialistas em inteligência artificial (IA) dizem que pode ser quase impossível de realizar rapidamente.

As autoridades italianas emitiram uma proibição geral dos produtos GPT da OpenAI, tornando-se o primeiro país ocidental a evitá-los completamente. A ação ocorreu logo após uma violação de dados em que os clientes do ChatGPT e da GPT API podiam ver os dados gerados por outros usuários.

De acordo com uma tradução do Bing da ordem italiana ordenando que a OpenAI cesse suas operações ChatGPT no país até que seja capaz de demonstrar conformidade:

“Em seu pedido, a SA italiana destaca que nenhuma informação é fornecida aos usuários e titulares de dados cujos dados são coletados pela Open AI; mais importante, parece não haver base legal que sustente a coleta massiva e o processamento de dados pessoais para ‘treinar’ os algoritmos dos quais a plataforma depende.”

A queixa italiana continua afirmando que a OpenAI também deve implementar medidas de verificação de idade para garantir que seu software e serviços estejam em conformidade com os termos de serviço da própria empresa, exigindo que os usuários tenham mais de 13 anos.

A fim de alcançar a conformidade com a privacidade na Itália e no resto da União Europeia, a OpenAI terá que fornecer uma base para seus processos de coleta de dados abrangentes.

De acordo com o Regulamento Geral de Proteção de Dados (GDPR) da UE, as empresas de tecnologia devem receber o consentimento do usuário para treinar seus produtos com dados pessoais. Além disso, as empresas que operam na Europa também devem dar aos europeus a opção de optar por não coletar e compartilhar dados.

De acordo com especialistas, isso será um desafio difícil para a OpenAI, porque seus modelos são treinados em enormes volumes de dados extraídos da Internet e combinados em conjuntos de treinamento. Essa forma de treinamento de caixa preta visa criar um paradigma chamado “emergência”, onde características úteis se manifestam de forma imprevisível nos modelos.

Infelizmente, isso significa que os desenvolvedores raramente têm como saber exatamente o que está no conjunto de dados. E como a máquina tende a combinar vários pontos de dados à medida que gera saídas, pode estar além do escopo dos técnicos modernos extrair ou modificar partes individuais dos dados.

Margaret Mitchell, especialista em ética em IA, disse ao MIT Technology Review que será extremamente difícil para a OpenAI identificar dados de indivíduos e retirá-los de seus modelos.

Para alcançar a conformidade, a OpenAI terá que demonstrar que obteve os dados usados para treinar seus modelos com o consentimento do usuário – algo que os trabalhos de pesquisa da empresa mostram que não é verdade – ou demonstrar que tinha um interesse legítimo em coletar os dados no primeiro lugar.

Lilian Edwards, professora de direito da Internet na Universidade de Newcastle, disse ao Technology Review do MIT que a disputa é maior do que apenas a ação italiana, afirmando que as violações são tão significativas que o caso provavelmente terminará no mais alto tribunal da UE, o Tribunal de Justiça.

Isso coloca a OpenAI em uma posição potencialmente precária. Se não conseguir identificar e remover dados individuais de acordo com as solicitações do usuário nem fazer alterações nos dados que deturpam as pessoas, pode ser que não consiga operar seus produtos ChatGPT na Itália.

Os problemas da empresa podem não parar por aí, já que os reguladores franceses, alemães, irlandeses e da UE também estão considerando ações para regular o ChatGPT.

Veja mais em: IA – Inteligência Artificial | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp