Antes e depois da IA

Vieses algorítmicos e democratização pautam debate da regulamentação da IA. Mas, afinal, regras devem frear ou acelerar inovações?

Author Photo
2:50 pm - 31 de julho de 2023

No começo de dezembro de 2022, uma ferramenta de inteligência artificial (IA) arrebatou o mundo: surgia a febre “ChatGPT”, ferramenta de IA generativa que mudou a forma como nos relacionamos com as máquinas. Mesmo que, meses antes, outra ferramenta, o Dall-E, para criar imagens, também tenha causado grande impacto, o “robô conversador” explodiu de tal forma que se tornou impossível não ter opinião sobre o tema. A IA, afinal, é um risco ou uma oportunidade?

A partir dessa pergunta, em poucos meses, governos de todos os países precisaram mergulhar no tema, recrutar especialistas e debater os limites da nova tecnologia. Tudo isso enquanto ela própria se desenvolvia em um ritmo jamais visto pela humanidade. Se a versão 3.5 do ChatGPT, de 2022, já havia chocado, a 4.0, lançada em março, deixou clara a urgência de regular o tema.

priscila reis1 1 Antes e depois da IAPriscila Reis, advogada e mestre em Tecnologias da Inteligência pela PUC-SC (Imagem: Divulgação)

“O Brasil tenta seguir o modelo da Europa, que tem tradição de vanguarda na legislação que fala sobre ‘direitos do futuro’. Nós nos inspiramos na lei para proteção de dados da Europa e devemos nos inspirar também sobre a inteligência artificial. Deve ser criada uma autoridade competente para tratar dos assuntos e definir diretrizes do uso da IA no Brasil. A abordagem do projeto de lei é baseada em riscos, e isso também é uma inspiração na regulamentação da União Europeia, a AI Act”, diz Priscila Reis, advogada especialista no tema, e mestre em Tecnologias da Inteligência com ênfase em inteligência artificial pela PUC-SC.

Como o projeto de lei da IA nasceu?

O texto do Projeto de Lei 2.338/2023 mencionado por Priscila e apresentado nas últimas semanas foi pensado por uma comissão composta por 18 juristas, sob coordenação do ministro Ricardo Villas Boas Cuevas, do Supremo Tribunal de Justiça (STJ). O núcleo teve apoio técnico de especialistas e, além da inspiração na legislação europeia, levou em consideração também a regulamentação da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e Unesco.

Leia também: Principais players de IA generativa se unem para criar o Frontier Model Forum

Segundo o PL, o Estado pretende criar regras para utilização, tanto pelo setor público quanto pelas empresas, assim como estabelecer direitos para os afetados. E, dentre as penas, estão multas que vão de 2% do faturamento ou até R$ 50 milhões, a suspensão temporária ou mesmo definitiva dos sistemas. Legislação muito semelhante àquela que está sendo implementada na Europa.

A comissão julgadora, ainda a ser designada, determinará o grau de risco dos sistemas de inteligência artificial – que terá como fatores resolutivos critérios como tamanho, impacto sobre liberdades e democracia, danos ao patrimônio e mesmo o “viés algorítmico”, quando o sistema privilegia determinados grupos em detrimento de outros e potencializa casos de racismo, sexismo ou influencia em padrões de consumo. Exemplos disso são os recentes casos quando a IA determinou que pessoas não-brancas têm maior chance de reincidência criminal.

Viés algorítmico: um dos maiores riscos

No último dia 18 de maio, o CEO da OpenAI, criadora do ChatGPT, Sam Altman, esteve no Rio de Janeiro para um evento no Museu do Amanhã. O mediador do encontro, Denis Mizne, CEO da Fundação Lemann, contou que recorreu ao ChatGPT para perguntar quem ele deveria chamar para ajudar a entrevistar Altman no palco.

“Perguntei ao Chat GPT quem eu poderia convidar para entrevistar o Sam, e ele me indicou cinco homens. E rebati, ‘Mas só homem?’. Foi aí que ele me indicou a Nina”, contou, fazendo referência à Nina da Hora, cientista da computação e ativista, uma das vozes com as críticas – sempre construtivas – à inteligência artificial.

Presente no palco, Nina levantou pontos importantes – dois dos riscos mais subestimados do ChatGPT e demais ferramentas de inteligência artificial generativa (aquelas capazes de “gerar” conteúdo original): a falta de qualquer transparência sobre seu algoritmo e o impacto disso, o “viés algorítmico”.

Veja também: Empregos em busca de habilidades de IA aumentam 450%

Sobre o primeiro ponto, Nina da Hora fez questionamentos ao CEO sobre os motivos pelos quais seus produtos estão distantes do movimento open science, que tem como objetivo democratizar dados sobre pesquisas e torná-los acessíveis a todos. De posse desses dados, cientistas poderiam apontar possíveis falhas e sugerir correções. Altman, no entanto, foi lacônico sobre o tema e limitou-se a dizer que “a OpenAI vai se restringir de publicar algumas coisas”.

Já sobre o viés algorítmico, Nina permaneceu no tema, insistindo no ponto de que a IA, da forma como foi concebida, pode ajudar a perpetuar e a aprofundar modelos discriminatórios. A cientista deu exemplos de boas práticas, mencionando a startup brasileira Sabiá, que gerou o primeiro modelo de linguagem em português, tendo como ponto de partida a diversidade brasileira.

nina da hora divulgacao1 Antes e depois da IANina da Hora, cientista da computação e ativista (Imagem: Divulgação)

“Existe, por exemplo, uma masculinização da inteligência artificial. Como praticamente 80% das pessoas que estão por trás do processo de treinamento dos sistemas, tanto da curadoria quanto dos dados da calibragem, dos próprios sistemas, são homens. E por que isso? Por conta de uma questão cultural. E está tudo nos dados que alimentam os sistemas, como os preconceitos. Não importa se eles são dados corretos ou não, ele aprende com base naqueles dados e entrega resultados prováveis. O sistema não é verdadeiramente inteligente, eles são modelos probabilísticos, modelos estatísticos”, explica a advogada Priscila.

É possível regular as big techs?

“Com relação à atuação das big techs, se há um limite para atuação delas, bom, não só em relação a tecnologia, mas a outras grandes organizações, os grandes grupos concentram muito dinheiro. E dão as regras da economia. Então, não estão criando regulamentações, que, na teoria, é papel dos governos, mas na prática eles conduzem a economia. E sabemos que boa parte delas vive com informações obtidas de nossos dados. Assim como a história da humanidade é contada em antes e depois de Cristo, estamos num momento de ‘antes da IA e depois da IA’”, diz Renato Grau, futurista, empresário e embaixador do Movimento Brasil Digital para Todos.

A provocação de Grau faz sentido. Em depoimento ao Congresso norte-americano, Altman reforçou seu ponto de que é papel dos governos legislar, mas as empresas devem criar padrões próprios, sob pena de ver seus negócios influenciados por políticos – cujos interesses podem estar mais alinhados com sua base eleitoral do que com a sociedade.

Leia mais: IA acabará com esses empregos – mas criará outros também

“Com esses projetos de lei que estão para ser aprovados não parece que temos algo isento. Isto é muito preocupante. A regulamentação é sempre bem-vinda, desde que seja um parâmetro justo para a sociedade. O que está acontecendo é que, aparentemente, essa regulamentação existe para beneficiar poucos. E dentro da questão de desenvolvimento das dos projetos de lei de normas e regulamentações é fundamental haver sim pessoas técnicas. De maneira alguma isto pode ser definido num ambiente político”, alerta o futurista.

Assim, como impor regras para empresas transnacionais, com centenas de milhares de empregados, cujo valor pode ultrapassar a inimaginável cifra de US$ 1 trilhão e com faturamento que é maior do que o produto interno bruto (PIB) nominal da maioria dos países onde atuam?

A resposta, novamente, parece vir da Europa. A General Data Protection Regulation (GDPR), ou regulação de proteção de dados gerais, que inspirou a nossa Lei Geral de Proteção de Dados Pessoais (LGPD), já autuou o Google em € 50 milhões e a British Airways, em £ 183 milhões, para citar alguns casos. Uber, Facebook, Yahoo e outras gigantes digitais também precisaram sentir no bolso para mudar suas práticas.

Veja mais: Transformação digital, IA e o problema da produtividade

“O Brasil não está atrasado em termos de regulação, certo? A gente está no caminho do mundo. O problema não é o passo que essa lei vai ser aprovada, mas sim a conscientização em relação à tecnologia. Então, assim não adianta você só ter uma lei, mas também ela tem que fomentar a discussão sobre inovação e a educação sobre essa tecnologia. A lei vem antes de um processo de educação da própria população, que vai estar sujeita a essa lei. Com o ChatGPT surgiu essa fome de usar inteligência artificial generativa, melhorar a produtividade. Só que as pessoas estão usando e não sabem nem o que é”, finaliza Priscila.

Big techs ficam em silêncio sobre o tema

Procurada pela revista IT Forum, a Microsoft, maior investidora da OpenAI, criadora do ChatGPT, disse que não iria se pronunciar sobre o tema. Por e-mail, a assessoria da big tech se limitou a dizer que “a Microsoft não está comentando sobre o assunto no momento”. A reportagem também procurou falar com executivos da empresa. Apesar da receptividade dos quadros, a assessoria também informou que eles não estariam autorizados a falar.

No entanto, um dos nomes da Microsoft, que pediu anonimato, comentou que o Brasil acelerou a tramitação da legislação e “está atropelando as discussões”, fazendo referência à Lei das Fake News (PL 2630/2020), que foi inesperadamente priorizada nas últimas semanas.

Renato Grau foto de Patricia Santos1 Antes e depois da IARenato Grau, futurista, empresário e embaixador do Movimento Brasil Digital para Todos (Imagem: Divulgação)

Ainda segundo a fonte da Microsoft, outro ponto que causa apreensão na empresa é o fato de praticamente não ter havido discussões técnicas sobre a IA, e sobre a amplitude da PL, que pode criar uma legislação vaga, imprecisa e de difícil aplicabilidade. A fonte, porém, elogiou a forma “prática” como o Brasil lidou com o tema, se espelhando profundamente no exemplo europeu.

O Google, outra big tech que investe pesado na IA e lançou recentemente uma poderosa ferramenta, o Bard, também foi procurado pela redação. Ao contrário da Microsoft, a gigante das buscas deixa claro que reconhece a importância do diálogo com a classe política e a sociedade civil, em prol do aperfeiçoamento da tecnologia e democratização do bom uso da inteligência artificial. Confira a íntegra da nota.

“O Google apoia e reconhece a importância de debatermos a regulamentação para temas centrais como a Inteligência Artificial (IA). Os governos têm um papel importante a desempenhar na maximização dos benefícios da IA e no gerenciamento de seus riscos. Por isso, estamos dialogando com a sociedade civil, o Executivo e o Legislativo para colaborar com o aperfeiçoamento das propostas de criação de um Marco Regulatório de Inteligência Artificial no Brasil. Nosso foco é colaborar para que todos os usuários e o ecossistema de inovação possam ter acesso aos benefícios trazidos pelos avanços tecnológicos da IA, desde startups e pequenos empreendedores até iniciativas de grande porte. Estamos convencidos de que nossos produtos habilitados por AÍ são úteis, atraentes e têm o potencial de ajudar e melhorar a vida das pessoas em todos os lugares. Continuaremos trabalhando de forma pioneira e responsável para cumprir esse objetivo.

*Esta reportagem foi originalmente publicada na edição #28 da Revista IT Forum.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.