Europa aprova lei que regulamenta a inteligência artificial
Nova lei oferece segurança jurídica a empresas e usuários da tecnologia, o que facilita um desenvolvimento mais seguro e sustentável
O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.
Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.
Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.
O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.
Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.
Veja esse artigo em vídeo:
A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.
“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.
Leia mais: Chegamos ao fim da “autorregulação” das big techs?
A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.
A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.
A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.
Evitando Estados policialescos
Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.
Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.
A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.
O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.
É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.
Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!