Notícias

6 mitos e verdades sobre IA na legislação brasileira

A popularização de ferramentas de inteligência artificial (IA) generativa, como o ChatGPT, pode levantar dúvidas a respeito de sua aplicação no dia a dia. Afinal, o Brasil tem leis sobre o uso de IA? Quem é punido se o ChatGPT contribuir para a divulgação de uma informação falsa? E como evitar violações à propriedade intelectual?

A tecnologia emergente promete uma série de benefícios em diversas indústrias, mas especialistas têm levantado preocupações a respeito dos riscos em seu uso e em seu desenvolvimento.

O advogado Rodrigo Azevedo, sócio coordenador da Área de Propriedade Intelectual e Direito Digital do escritório Silveiro Advogados, tira dúvidas a respeito de questões polêmicas sobre o uso de ferramentas de IA no país, se elas não passam de mito ou devem demandar atenção.

1. Não existe uma legislação específica sobre IA no Brasil

Verdade. Está em trâmite no Senado o Projeto de Lei 2338/2023 (Marco Legal para Inteligência Artificial), que busca regular a matéria ao proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis.

Leia também: União Europeia acerta ao regulamentar IA, mas há incertezas a respeito do cumprimento

“Trata-se de um passo importante e necessário para endereçar os riscos do uso dos sistemas de Inteligência Artificial, sem frear o desenvolvimento tecnológico no Brasil”, afirma Azevedo.

2. Enquanto não houver lei, uso de IA não está sujeito a qualquer norma legal

Mito. “Embora não exista uma normativa específica que regule o uso dos sistemas de IA no Brasil, o ordenamento jurídico brasileiro possui diversas leis que se aplicam à contratação e utilização de ferramentas dessa natureza”, explica o especialista.

Como exemplos, cita o Código de Defesa do Consumidor (para situações envolvendo defeitos em produtos como dispositivos de voz com IA), o Marco Civil da Internet (para casos envolvendo deep fakes na internet), a Lei da Propriedade Industrial ou a Lei dos Direitos Autorais (para violações à propriedade intelectual) e a LGDP (a Lei Geral de Proteção de Dados, para questões envolvendo dados pessoais).

3. Inteligência Artificial pode discriminar pessoas

Verdade. “A discriminação algorítmica é um dos riscos presentes no uso de sistemas de IA que exigirão controles e explicações dos desenvolvedores de IA”, explica o advogado. Segundo ele, tratamentos de dados que gerem resultados discriminatórios podem suscitar a aplicação da LGPD (Lei Geral de Proteção de Dados), fazendo com que os provedores dessas aplicações sejam responsabilizados perante os cidadãos prejudicados. Já há precedentes nesse sentido na União Europeia.

4. Profissionais liberais não estão autorizados a usar o ChatGPT em atividades profissionais

Mito. “Efetivamente, têm sido divulgados alguns casos pontuais de responsabilização de profissionais por informações equivocadas trazidas por ferramentas de Inteligência Artificial, por violação à privacidade ou à propriedade intelectual. Contudo, a legislação brasileira não proíbe o uso desses recursos por profissionais liberais”, explica Azevedo.

Basta que se adotem as cautelas apropriadas, como checar os resultados propostos pela ferramenta, evitar reproduzi-los diretamente e não incluir dados pessoais ou informações confidenciais de clientes.

5. Ferramentas de IA podem violar direitos de propriedade intelectual

Verdade. O especialista explica que atualmente há um debate global sobre eventuais violações de direitos autorais dos criadores de conteúdos que são utilizados como base de aplicações de IA. “A resposta para essa questão dependerá principalmente do quanto os materiais de base são reproduzidos – mesmo que parcialmente – pela ferramenta, ou, de outro lado, se são apenas utilizados para aprendizagem da máquina. Isso porque o direito autoral protege a expressão, e não as ideias subjacentes às obras”, destaca o especialista.

A recomendação é não reproduzir os conteúdos gerados por ferramentas de IA, mas que estes sirvam de inspiração para criações independentes, realizadas pelo usuário. “Outra alternativa é contratar versão paga das ferramentas, a qual normalmente possui mais salvaguardas contra a violação de direitos de terceiros e, inclusive, permite a inserção de modelos de documentos do próprio usuário”, diz Azevedo.

6. IA pode contribuir para disseminar notícias falsas e desinformação

Verdade. “A própria OpenAI adverte em seu website que, às vezes, o ChatGPT escreve respostas que soam muito plausíveis, mas que são incorretas ou não fazem sentido. Isso acontece porque esses modelos de linguagem aprendem a imitar padrões de textos que foram alimentados durante o treinamento, e não porque ele de fato compreende o que está escrevendo”, diz o advogado.

“É importante sempre checar a informação trazida pelo ChatGPT, a fim de se evitar a reprodução de notícias falsas.” O PL das Fake News, atualmente em tramitação, tenta endereçar o tema. “A matéria é extremamente controvertida pois envolve dois valores igualmente importantes para a sociedade: a liberdade de expressão, de um lado, e o combate à desinformação e às fraudes em geral, de outro.”

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

IT Forum Trancoso: “Brasil deve ser o novo centro do pensamento ecológico”, diz Miguel Setas, da CCR

É fundamental que organizações definam um propósito que impacte positivamente o mundo que as cercam.…

2 horas ago

Estudo usa IA e prevê seca na Grande São Paulo em 2025

Um estudo feito pelo centro de pesquisas privado Lactec que usou inteligência artificial para analisar…

16 horas ago

GE Lighting obtém 50% de economia com suporte SAP da Rimini

A GE Lighting, empresa americana que oferece produtos de iluminação residencial e casas inteligentes, migrou…

1 dia ago

Inteligência artificial reduz desperdício de alimentos frescos em grande varejista de São Paulo

Apesar de vitais para a humanidade, frutas, verduras e hortaliças sofrem um problema crônico de…

1 dia ago

Uso de IA nas corporações exige análise de maturidade, diz CEO da Aoop

Um estudo global feito pela Edelman, o Trust Barometer 2024, descobriu uma lacuna entre a…

1 dia ago

Zeztra transaciona R$ 100 milhões em 2023 e planeja expansão

A Zeztra, fintech especializada em recebimentos e cobranças com sede em Sorocaba (SP), terminou 2023…

2 dias ago