5 medidas para proteger a privacidade em IA, segundo a KPMG
Estudo recomenda as principais etapas que as organizações podem seguir para usar a tecnologia com segurança
O avanço da Inteligência Artificial Generativa nas empresas esbarra em questões importantes de privacidade em IA. Um novo estudo realizado pela KPMG, o “Privacy in the new world of AI” destaca as implicações da generalização da adoção da IA quanto à privacidade e recomenda as principais etapas que as organizações podem seguir para usar a tecnologia com segurança.
“Existem alguns cuidados que devem ser observados na hora da implementação de projetos de IA nas instituições, a fim de reduzir as chances de vazamento de informações sensíveis e proteger os dados dos consumidores, garantindo assim a preservação da privacidade dos envolvidos”, afirma Leandro Augusto, sócio-líder de Cyber Security & Privacy da KPMG no Brasil e na América do Sul.
Leia mais: 78% dos funcionários usam o ChatGPT pelo menos uma vez por dia, diz pesquisa
De acordo com o estudo, há 5 medidas-chave que auxiliam na proteção à privacidade em relação à adoção de IA nas empresas:
1. Entenda o seu ambiente regulatório e adote uma estratégia de privacidade de IA
É importante identificar quais sãos as normas regulatórias que dizem respeito ao setor da empresa. Com esse conhecimento será mais viável definir quais políticas de privacidade em IA você implementará na sua organização. Essa base de referência para o uso de IA deve ser feita a modo de satisfazer diferentes regimes, pensando, inclusive, na simplificação do desenvolvimento das atividades relacionadas a ela.
2. Incorpore avaliações da Privacidade por Projeto
Já no momento de idealização é importante analisar o impacto que ele terá sobre a privacidade e as questões que envolvem o compliance. Isso pode ser feito usando a Avaliação Sistemática do Impacto sobre a Privacidade (PIA) ou com a Avaliação do Impacto da Proteção de Dados (DPIA). Isso vale também para empresas que acreditam utilizar apenas dados não pessoais ou anônimos. Para uma avaliação mais completa recomenda-se inserir nessa parte do projeto uma modelagem das ameaças à segurança e a privacidade e, se necessário, uma consulta das partes interessadas. Todas essas questões devem ser observadas e mantidas por todo o tempo de uso da IA no projeto.
3. Avalie os riscos à privacidade de IA
Ao mesmo tempo que fizer uso da PIA ou DPIA, ou em seguida, é importante avaliar os riscos à privacidade de IA. É o momento de assegurar que o projeto está contemplando as principais normas, práticas e principalmente os códigos de conduta que tornam operantes os requisitos. A KPMG lembra que isto vale tanto ao desenvolvedor quanto ao cliente que está solicitando um projeto de IA na sua instituição. Para clientes é muito importante solicitar do prestador desse serviço a documentação de suporte da PIA ou DPIA. “Já existem países em que a legislação exige essas avaliações e no Brasil estamos caminhando para a regulação do uso destes dados”, indica a consultoria.
4. Realize análise independente do seu sistema de IA
Uma empresa externa validará se o trabalho de criação e implementação do projeto foram baseados com toda a segurança e protocolos vigentes para IA. “É extremamente recomendado aos desenvolvedores de sistema de IA para que seus clientes estejam assegurados junto aos órgãos reguladores e às boas práticas existentes”, aconselha o estudo.
5. Respeite os direitos e as escolhas por meio de explicabilidade e transparência em relação a inputs e outputs de dados
É necessário que as empresas que usam IA em projetos de tomadas de decisões estejam aptas a responder quais são os moldes que guiam a inteligência nessa prática. O estudo indica que a explicação deve trazer clareza quanto aos métodos usados para que a IA tenha feito uma decisão, recomendação ou previsão. Uma boa forma de fazer isso é por meio de fluxos de trabalho que documentem, identifiquem e expliquem as maneiras que os dados foram utilizados com relação ao usuário final e as possibilidades de contestação dessa decisão.
“Quando as empresas permanecem atualizadas sobre as práticas de segurança na adoção da IA para a privacidade e antecipam-se aos possíveis riscos conseguem aproveitar melhor o potencial da tecnologia e ao mesmo tempo protegem a privacidade dos usuários”, diz Ricardo Santana, Sócio-líder de Data & Analytics da KPMG no Brasil.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!