A parceria entre a Apple e a OpenAI teve um começo difícil, pois os usuários do ChatGPT no macOS descobriram recentemente que suas conversas estavam sendo armazenadas em arquivos de texto simples.
A Apple se posicionou como uma empresa que prioriza a privacidade em um mercado onde muitos de seus concorrentes obtêm a maior parte de seus lucros com a venda ou reaproveitamento de dados de usuários. Mas, conforme demonstrado pelo engenheiro de dados e eletrônica Pedro José Pereira Vieito em uma postagem na plataforma Threads da Meta, alguém errou feio quando se tratou da integração terceirizada do ChatGPT da OpenAI no macOS.
O ChatGPT foi lançado no macOS em maio para assinantes. O acesso geral para contas de não assinantes foi disponibilizado em junho. Até o início de julho, porém, o aplicativo armazenava todos os registros de bate-papo em arquivos de texto simples não criptografados nos discos rígidos dos usuários.
Isso significava que qualquer pessoa com acesso ao computador, seja fisicamente ou por meio de ataques remotos, como malware ou phishing, tinha acesso a todas as conversas que qualquer usuário desse computador tivesse com o ChatGPT.
O macOS da Apple tem uma medida de proteção de privacidade chamada “sandboxing” que controla o acesso de aplicativos a software e dados no nível do kernel. Os aplicativos instalados por meio do serviço de aplicativos da Apple são sandboxing por padrão para que os dados nunca fiquem sem criptografia.
Pereira Vieito atribui esse problema recente ao fato de o aplicativo ChatGPT no macOS ser oferecido exclusivamente através do site da OpenAI:
“A OpenAI optou por sair da sandbox e armazenar as conversas em texto simples em um local não protegido, desativando todas essas defesas integradas.”
Não está claro neste momento se algum usuário foi realmente afetado pelo aparente descuido, mas o teor geral nas redes sociais e os comentários de especialistas indicaram choque.
Na seção de comentários de um artigo publicado no Verge, por exemplo, um usuário postou que descobriu os arquivos de texto não criptografados armazenados na memória de seu computador:
“Usei o Activity Monitor para despejar o executável ChatGPT da memória e descobri que, horror dos horrores, o log do bate-papo está em texto simples, não criptografado na memória!”
A verdadeira questão é: por que isso aconteceu? Sabemos como isso aconteceu e está claro que o problema foi resolvido, mas o porquê permanece desconhecido.
Presumivelmente, isso foi feito para que o OpenAI pudesse acessar facilmente os logs de bate-papo para desenvolvimento adicional do ChatGPT. De acordo com os termos de uso do aplicativo, os usuários devem optar explicitamente por não compartilhar seus dados com a OpenAI.
Mas por que a Apple não intercedeu em nome dos usuários antes de o aplicativo ser lançado e por que a OpenAI não reconheceu que estava gerando dados confidenciais e não criptografados nas máquinas dos usuários?