Chatbots e a conformidade com a privacidade e proteção dos dados pessoais

Para que não ocorram violações a LGPD, algumas medidas, consideradas boas práticas, devem ser tomadas pelas empresas

Author Photo
2:12 pm - 07 de julho de 2023
Imagem: Microsoft

A utilização dos chatbots pelas empresas não é nenhuma novidade. Essas ferramentas de comunicação automatizadas (robôs), que simulam o atendimento humano, vêm sendo utilizadas, há algum tempo, por alguns segmentos, como o setor varejista.

O chatbot é uma ferramenta tecnológica criada para automatizar tarefas, realizando uma conversa inicial entre os clientes e empresa. Normalmente, os chatbots possuem limites de interação e não conseguem dar respostas às perguntas que fogem do roteiro previamente definido.

À medida que a tecnologia vai se tornando mais desenvolvida, novos chatbots baseados em inteligência artificial (IA) vão surgindo e junto com eles as preocupações relacionadas com a privacidade e à proteção dos dados pessoais.

Diversas empresas já proibiram, por exemplo, uso do ChatGPT, que é um chatbot de IA, pelos seus funcionários, em razão das preocupações de conformidade relacionadas ao uso de software de terceiros.

Essas restrições não foram feitas apenas pelas empresas. Alguns reguladores ligaram o alerta vermelho em relação à ferramenta e a autoridade italiana, chegou a emitir uma proibição temporária do ChatGPT no país, citando preocupações com a privacidade depois que a própria OpenAI, criadora do ChatGPT, divulgou uma violação.

Leia também: O desafio do gerenciamento de mudanças da IA generativa

O ChatGPT foi disponibilizado ao público no final de novembro de 2022 e, na verdade, não se sabe como as informações coletadas serão utilizadas.

Problemas, relacionados à utilização da ferramenta, tem ocorrido com frequência. Recentemente, nos Estados Unidos, um advogado utilizou a IA da OpenAI na preparação de um recurso, entretanto, houve um questionamento do juiz sobre a existência dos casos citados pelo advogado, quando este admitiu que fez uso do ChatGPT e que não havia percebido que o chatbot criou casos fictícios.

Portanto, para que não ocorram violações aos requisitos de privacidade e segurança previstos na Lei Geral de Proteção de Dados (LGPD), algumas medidas, consideradas como boas práticas, devem ser tomadas pelas empresas.

Dentre essas medidas, o usuário precisa ser informado que a interação está sendo feita com um sistema de inteligência artificial; deve ser informado sobre a finalidade de uso dos seus dados e a duração do tempo em que eles serão utilizados; e deve ser informado sobre a possibilidade de contato direto com um humano, como opção de contato.

A comunicação sobre tratamento de dados necessita ser feita de forma transparente e é importante que as empresas implementem medidas de segurança adequadas para os sistemas de chatbots.

* Vivian Azevedo é advogada responsável pela área de Privacidade e Proteção de Dados Pessoais do Bhering Cabral Advogados

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.