Deepfakes: a ameaça que desafia a Justiça
O debate em torno da sua regulamentação e da definição dos princípios éticos para seu uso é um dos principais temas e desafios atuais da sociedade
A produção indevida de vídeos sintéticos que servem de isca para aplicação de golpes financeiros tem aumentado exponencialmente no Brasil. Entre 2022 e 2023, segundo o relatório Sumsub Identity Fraud Report 2023, o crescimento de golpes aplicados com deepfake, técnica de falsificação de imagens com recursos de Inteligência Artificial (IA), foi de 830%, na maior alta da América Latina.
De acordo com o Relatório de Riscos Globais 2024, publicado pelo Fórum Econômico Mundial em janeiro deste ano, as informações falsas ou distorcidas produzidas por IA são, hoje, o “maior risco global em curto prazo”. A magnitude e as possibilidades de criação com a tecnologia abrem caminho para a manipulação de diversas narrativas, inclusive políticas, que exploram a incerteza e dificuldade da população em distinguir o que é fato e ficção.
A Justiça brasileira tem recebido os primeiros casos relacionados a golpes utilizando inteligência artificial, que normalmente são enquadrados como estelionato digital, afinal se valem de um artifício ardiloso, ou seja, induzem pessoas ao erro para poder obter ganho monetário.
Leia também: Trabalhadores de IA buscam proteção para expor ameaças emergentes
O médico Drauzio Varella e o jornalista Pedro Bial foram algumas das vítimas que tiveram suas identidades falsificadas e monetizadas com essa técnica. Ambos atestaram que se tratava de conteúdos manipulados e, inclusive, contestaram a falta de ação das big tech diante da disseminação dessas publicações.
A sociedade da informação trouxe mudanças que precisam ter previsão na lei, para que os valores esperados sejam retratados, o que é requisito para garantir a desejada segurança jurídica das pessoas.
Aqui, temos um ponto fundamental a ser definido: a responsabilidade no uso da IA, uma especificação que gera divergências. Como é possível definir esses limites? Quem responde por consequências ou indenizações?
Quando queremos regular a tecnologia temos grande chance de errar a mão: para mais, cerceando a inovação ou para menos, acarretando ineficiência normativa. O fato é que, atualmente, a legislação civil e autoral vigente estão defasadas e não comportam as questões de IA.
Nesse sentido, um bom exemplo a ser seguido é o da Califórnia, estado que tem investido em uma legislação específica para proteção e combate de deepfakes, por exemplo, exigindo o consentimento de espólios para o uso de imagens de artistas mortos em réplicas digitais criadas por IA.
O debate em torno da sua regulamentação e da definição dos princípios éticos para seu uso é um dos principais temas e desafios atuais da sociedade. Consiste numa ferramenta auxiliar e um amplificador da transformação digital e da inovação, que já é indispensável para o desenvolvimento social e econômico.
Precisamos ser, também, protagonistas neste momento de salto evolutivo, elaborar e orientar sobre os caminhos possíveis, até em nível de autorregulação, no sentido de códigos de melhores práticas. Devemos entender que esses recursos foram criados para resolver dificuldades e melhorar o bem-estar humano. O problema não é a aplicação da tecnologia, mas sim a falta de comunicação do seu uso – que envolve o princípio da transparência.
Questões éticas, de privacidade e de segurança precisam ser cumpridas para que haja equilíbrio e respeito nas relações homem-máquina.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!