OpenAI implementa controles de privacidade de dados no ChatGPT

Novo modo de "desativação do histórico" está disponível e ChatGPT Business mais robusto será lançado nos próximos meses

Author Photo
9:16 am - 02 de maio de 2023
Imagem: Shutterstock

A OpenAI, a empresa apoiada pela Microsoft por trás do inovador sistema de IA generativa ChatGPT, anunciou esta semana que permitiria aos usuários desativar o recurso de histórico de bate-papo de seu principal chatbot, no que está sendo visto como uma resposta parcial aos críticos preocupados com a segurança de dados fornecidos ao ChatGPT.

O recurso “histórico desativado” significa que as conversas marcadas como tal não serão usadas para treinar os modelos subjacentes do OpenAI e não serão exibidas na barra lateral do histórico. Eles ainda serão armazenados nos servidores da empresa, mas serão analisados apenas conforme necessário quanto a abusos e serão excluídos após 30 dias.

Leia mais: Atento testa ChatGPT em projetos de melhoria da experiência dos clientes

“Esperamos que isso forneça uma maneira mais fácil de gerenciar seus dados do que nosso processo de exclusão existente”, disse a empresa em um post oficial no blog.

A OpenAI também disse que a empresa está trabalhando em um novo modelo de assinatura de negócios ChatGPT, voltado para usuários organizacionais que podem precisar de controle mais direto sobre seus dados. O ChatGPT Business aderirá às políticas de uso de dados da API da empresa, o que significa que os dados do usuário não serão, por padrão, usados para treinamento de modelos. A OpenAI disse que espera estrear esse modelo de assinatura “nos próximos meses”.

Reguladores estão de olho na OpenAI

A notícia surge na sequência de uma ação do Conselho Europeu de Proteção de Dados, no início de abril, para investigar o ChatGPT, após reclamações de vigilantes da privacidade de que o chatbot não cumpria o Regulamento Geral de Proteção de Dados da UE. A Itália, em março, proibiu temporariamente o uso do ChatGPT devido a supostas violações da privacidade do usuário. O responsável pela garantia da proteção de dados do país exigiu que o serviço demonstrasse conformidade com as leis de privacidade aplicáveis e fornecesse maior transparência sobre como o sistema lida com os dados do usuário.

Está claro que a privacidade e a governança de dados não eram as principais preocupações da OpenAI, de acordo com o Vice-Presidente e Analista do Gartner, Nader Henein – que observou que isso não é novidade para uma startup focada em lançar um produto viável no mercado.

Leia também: Escolas querem proibir o ChatGPT, mas alunos o usam de qualquer maneira

“Eles continuam a construir o avião durante o voo”, disse ele. “Imagino que a maior parte do desenvolvimento em andamento na Microsoft, no Copilot, esteja focada em envolver essa governança e suporte corporativo em torno do OpenAI [grande modelo de linguagem]”.

É um passo na direção certa, acrescentou Henein, mas reflete que as decisões de design subjacentes a grande parte do ChatGPT podem ter tratado a privacidade como uma reflexão tardia, não como um componente central.

“Não tenho dúvidas de que a equipe da OpenAI está trabalhando arduamente para adaptar a governança à sua arquitetura”, disse ele. “É uma questão de quanto pode ser feito após o fato. A analogia que vimos ser usada repetidas vezes é a de assar um bolo e tentar adicionar açúcar ou fermento depois de retirá-lo do forno.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.