6 mitos e verdades sobre IA na legislação brasileira

 Especialista em Direito Digital explica a regulação do uso de ferramentas como ChatGPT no Brasil

Author Photo
9:04 am - 23 de junho de 2023
regulação, inteligencia artificial, lei, jurídico, regulamentação, IA generativa Imagem: Shutterstock

A popularização de ferramentas de inteligência artificial (IA) generativa, como o ChatGPT, pode levantar dúvidas a respeito de sua aplicação no dia a dia. Afinal, o Brasil tem leis sobre o uso de IA? Quem é punido se o ChatGPT contribuir para a divulgação de uma informação falsa? E como evitar violações à propriedade intelectual?

A tecnologia emergente promete uma série de benefícios em diversas indústrias, mas especialistas têm levantado preocupações a respeito dos riscos em seu uso e em seu desenvolvimento.

O advogado Rodrigo Azevedo, sócio coordenador da Área de Propriedade Intelectual e Direito Digital do escritório Silveiro Advogados, tira dúvidas a respeito de questões polêmicas sobre o uso de ferramentas de IA no país, se elas não passam de mito ou devem demandar atenção.

1. Não existe uma legislação específica sobre IA no Brasil

Verdade. Está em trâmite no Senado o Projeto de Lei 2338/2023 (Marco Legal para Inteligência Artificial), que busca regular a matéria ao proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis.

Leia também: União Europeia acerta ao regulamentar IA, mas há incertezas a respeito do cumprimento

“Trata-se de um passo importante e necessário para endereçar os riscos do uso dos sistemas de Inteligência Artificial, sem frear o desenvolvimento tecnológico no Brasil”, afirma Azevedo.

2. Enquanto não houver lei, uso de IA não está sujeito a qualquer norma legal

Mito. “Embora não exista uma normativa específica que regule o uso dos sistemas de IA no Brasil, o ordenamento jurídico brasileiro possui diversas leis que se aplicam à contratação e utilização de ferramentas dessa natureza”, explica o especialista.

Como exemplos, cita o Código de Defesa do Consumidor (para situações envolvendo defeitos em produtos como dispositivos de voz com IA), o Marco Civil da Internet (para casos envolvendo deep fakes na internet), a Lei da Propriedade Industrial ou a Lei dos Direitos Autorais (para violações à propriedade intelectual) e a LGDP (a Lei Geral de Proteção de Dados, para questões envolvendo dados pessoais).

3. Inteligência Artificial pode discriminar pessoas

Verdade. “A discriminação algorítmica é um dos riscos presentes no uso de sistemas de IA que exigirão controles e explicações dos desenvolvedores de IA”, explica o advogado. Segundo ele, tratamentos de dados que gerem resultados discriminatórios podem suscitar a aplicação da LGPD (Lei Geral de Proteção de Dados), fazendo com que os provedores dessas aplicações sejam responsabilizados perante os cidadãos prejudicados. Já há precedentes nesse sentido na União Europeia.

4. Profissionais liberais não estão autorizados a usar o ChatGPT em atividades profissionais

Mito. “Efetivamente, têm sido divulgados alguns casos pontuais de responsabilização de profissionais por informações equivocadas trazidas por ferramentas de Inteligência Artificial, por violação à privacidade ou à propriedade intelectual. Contudo, a legislação brasileira não proíbe o uso desses recursos por profissionais liberais”, explica Azevedo.

Basta que se adotem as cautelas apropriadas, como checar os resultados propostos pela ferramenta, evitar reproduzi-los diretamente e não incluir dados pessoais ou informações confidenciais de clientes.

5. Ferramentas de IA podem violar direitos de propriedade intelectual

Verdade. O especialista explica que atualmente há um debate global sobre eventuais violações de direitos autorais dos criadores de conteúdos que são utilizados como base de aplicações de IA. “A resposta para essa questão dependerá principalmente do quanto os materiais de base são reproduzidos – mesmo que parcialmente – pela ferramenta, ou, de outro lado, se são apenas utilizados para aprendizagem da máquina. Isso porque o direito autoral protege a expressão, e não as ideias subjacentes às obras”, destaca o especialista.

A recomendação é não reproduzir os conteúdos gerados por ferramentas de IA, mas que estes sirvam de inspiração para criações independentes, realizadas pelo usuário. “Outra alternativa é contratar versão paga das ferramentas, a qual normalmente possui mais salvaguardas contra a violação de direitos de terceiros e, inclusive, permite a inserção de modelos de documentos do próprio usuário”, diz Azevedo.

6. IA pode contribuir para disseminar notícias falsas e desinformação

Verdade. “A própria OpenAI adverte em seu website que, às vezes, o ChatGPT escreve respostas que soam muito plausíveis, mas que são incorretas ou não fazem sentido. Isso acontece porque esses modelos de linguagem aprendem a imitar padrões de textos que foram alimentados durante o treinamento, e não porque ele de fato compreende o que está escrevendo”, diz o advogado.

“É importante sempre checar a informação trazida pelo ChatGPT, a fim de se evitar a reprodução de notícias falsas.” O PL das Fake News, atualmente em tramitação, tenta endereçar o tema. “A matéria é extremamente controvertida pois envolve dois valores igualmente importantes para a sociedade: a liberdade de expressão, de um lado, e o combate à desinformação e às fraudes em geral, de outro.”

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.