O que você compartilha com o ChatGPT pode ser usado contra você

O que você compartilha com o ChatGPT pode ser usado contra você

O CEO da OpenAI, Sam Altman, recentemente trouxe à tona sérias preocupações sobre os riscos de privacidade associados às conversas que as pessoas têm com o ChatGPT.

Em uma entrevista com o podcaster Theo Von, Altman enfatizou uma lacuna legal crucial: diferentemente das conversas com profissionais como médicos, advogados ou terapeutas — que são protegidas por privilégios legais — conversar com chatbots de IA como o ChatGPT atualmente não desfruta do mesmo nível de confidencialidade ou proteção legal. Essa diferença expõe os usuários a riscos potenciais de que informações confidenciais compartilhadas com a IA possam ser divulgadas durante disputas ou investigações legais.

Altman explicou que, se alguém confidenciar assuntos sensíveis ou privados ao ChatGPT e posteriormente se envolver em um processo judicial, a OpenAI pode ser obrigada por lei a entregar esses registros de conversas como parte do processo de descoberta. Isso representa um distanciamento significativo de outras relações confidenciais, nas quais as leis de privacidade ou o privilégio advogado-cliente geralmente protegem as conversas da divulgação forçada.

“Se você falar com o ChatGPT sobre seus dados mais sensíveis e depois houver um processo judicial, poderemos ser obrigados a apresentar isso. As proteções que muitos usuários presumem ter não existem atualmente em interações com IA.”

Essa questão se torna particularmente crítica à medida que os sistemas de inteligência artificial servem cada vez mais como fontes de apoio psicológico, aconselhamento médico ou orientação financeira. As pessoas tendem naturalmente a compartilhar informações pessoais e sensíveis ao buscar ajuda, mas com a IA não há garantia de privacidade ou confidencialidade semelhante à que existe com profissionais licenciados. Altman considera essa situação muito problemática e insiste que a sociedade precisa estabelecer estruturas legais semelhantes em torno das conversas com IA.

“Deveríamos ter o mesmo conceito de privacidade para suas conversas com IA que temos com um terapeuta ou qualquer outro.”

As preocupações de Altman refletem incertezas mais amplas sobre como as empresas de IA lidam com os dados dos usuários, especialmente à medida que as ferramentas de IA se tornam mais sofisticadas e se integram mais profundamente à vida cotidiana. Ele admitiu sentir-se hesitante em usar alguns aplicativos de IA devido aos limites pouco claros sobre quais dados podem ser armazenados ou quem pode acessá-los.

“Essa é uma das razões pelas quais às vezes tenho medo de usar certos recursos de IA, porque não sei quanta informação pessoal quero inserir, porque não sei quem vai tê-la.”

Além da privacidade individual, Altman também apontou para uma preocupação mais sistêmica com a vigilância e o controle governamental. Com a IA se tornando mais difundida, os governos podem exigir maior supervisão do uso da IA para prevenir atividades maliciosas, como terrorismo ou crimes cibernéticos.

“Alguma redução na privacidade pode ser justificada para garantir a segurança coletiva, mas existem padrões históricos de excesso governamental. A história mostra que o governo leva isso longe demais.”

Esta conversa ocorre em um momento crucial, enquanto reguladores, legisladores e defensores da privacidade lutam com o desafio de criar novas regras para tecnologias de IA. O ritmo acelerado de desenvolvimento e implantação da IA ultrapassou as estruturas legais existentes, deixando lacunas na proteção e nas responsabilidades dos usuários. A ausência de leis claras de privacidade em IA levanta questões sobre responsabilidade, propriedade de dados e direitos dos usuários de controlar suas próprias informações.

Enquanto isso, os usuários devem ser cautelosos com o que compartilham com chatbots de IA, reconhecendo que essas conversas ainda não são protegidas por lei e podem ser acessíveis em determinadas circunstâncias. A situação exige maior conscientização sobre os riscos à privacidade e a importância do manuseio responsável de dados por desenvolvedores de IA.


Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp