Chatbots e a conformidade com a privacidade e proteção dos dados pessoais
Para que não ocorram violações a LGPD, algumas medidas, consideradas boas práticas, devem ser tomadas pelas empresas
A utilização dos chatbots pelas empresas não é nenhuma novidade. Essas ferramentas de comunicação automatizadas (robôs), que simulam o atendimento humano, vêm sendo utilizadas, há algum tempo, por alguns segmentos, como o setor varejista.
O chatbot é uma ferramenta tecnológica criada para automatizar tarefas, realizando uma conversa inicial entre os clientes e empresa. Normalmente, os chatbots possuem limites de interação e não conseguem dar respostas às perguntas que fogem do roteiro previamente definido.
À medida que a tecnologia vai se tornando mais desenvolvida, novos chatbots baseados em inteligência artificial (IA) vão surgindo e junto com eles as preocupações relacionadas com a privacidade e à proteção dos dados pessoais.
Diversas empresas já proibiram, por exemplo, uso do ChatGPT, que é um chatbot de IA, pelos seus funcionários, em razão das preocupações de conformidade relacionadas ao uso de software de terceiros.
Essas restrições não foram feitas apenas pelas empresas. Alguns reguladores ligaram o alerta vermelho em relação à ferramenta e a autoridade italiana, chegou a emitir uma proibição temporária do ChatGPT no país, citando preocupações com a privacidade depois que a própria OpenAI, criadora do ChatGPT, divulgou uma violação.
Leia também: O desafio do gerenciamento de mudanças da IA generativa
O ChatGPT foi disponibilizado ao público no final de novembro de 2022 e, na verdade, não se sabe como as informações coletadas serão utilizadas.
Problemas, relacionados à utilização da ferramenta, tem ocorrido com frequência. Recentemente, nos Estados Unidos, um advogado utilizou a IA da OpenAI na preparação de um recurso, entretanto, houve um questionamento do juiz sobre a existência dos casos citados pelo advogado, quando este admitiu que fez uso do ChatGPT e que não havia percebido que o chatbot criou casos fictícios.
Portanto, para que não ocorram violações aos requisitos de privacidade e segurança previstos na Lei Geral de Proteção de Dados (LGPD), algumas medidas, consideradas como boas práticas, devem ser tomadas pelas empresas.
Dentre essas medidas, o usuário precisa ser informado que a interação está sendo feita com um sistema de inteligência artificial; deve ser informado sobre a finalidade de uso dos seus dados e a duração do tempo em que eles serão utilizados; e deve ser informado sobre a possibilidade de contato direto com um humano, como opção de contato.
A comunicação sobre tratamento de dados necessita ser feita de forma transparente e é importante que as empresas implementem medidas de segurança adequadas para os sistemas de chatbots.
* Vivian Azevedo é advogada responsável pela área de Privacidade e Proteção de Dados Pessoais do Bhering Cabral Advogados
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!