Inteligência artificial (IA) também precisa ser justa e transparente

Para incrementar a adoção dessa tecnologia é necessário desconstruir alguns mitos existentes relacionados ao seu uso e capacidade

Author Photo
1:31 pm - 01 de junho de 2019

O governo brasileiro subscreveu, junto com 41 países, os princípios definidos pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para a adoção de sistemas baseados em inteligência artificial (IA). Logo, a partir do último 22 de maio, o Brasil se compromete a utilizar a IA de forma que estes sistemas sejam justos, transparentes e responsáveis. Isso tem pouco efeito sobre a tecnologia em si, mas impacta a forma com a qual ela será utilizada.

A inteligência artificial (IA) induz medo. Principalmente por causa de nosso desconhecimento sobre seus limites e pelo estímulo da ficção científica cinematográfica — tememos HAL 9000 de 2001: Uma Odisseia no Espaço, Ultron dos Vingadores e até mesmo Auto, de Wall-e. As corporações da vida real já estão gerando insegurança entre a população, o que motivou a OCDE, juntamente com a Comunidade Europeia e o governo americano, a tomar essa iniciativa.

Em um caso recente e impactante, a empresa inglesa Cambridge Analytica mostrou como os dados recolhidos pelo Facebook poderiam ser utilizados para controlar o comportamento do público. Usando dados e algoritmos de inteligência artificial (IA), seria possível até mesmo alterar o processo democrático — que deveria ser espontâneo. Por conta disso, a gigante mídia social está sofrendo forte oposição do governo americano. Há uma charge excelente circulando na rede, em que um garotinho diz para Mark Zuckerberg: “meu pai disse que você está espionando a gente”. Ao que ele responde: “ele não é seu pai”.

Por isso, o documento da OCDE destaca que os países se comprometem a garantir que os sistemas de inteligência artificial (IA) tenham como base cinco pontos. O primeiro é o crescimento inclusivo e o desenvolvimento sustentável. Devem também respeitar o estado de direito, os direitos humanos, os valores democráticos e a diversidade (permitindo a intervenção humana). Precisam ser transparentes e seguros. Seu funcionamento deve acontecer de maneira robusta, com avaliação contínua de riscos. Por último, devem ter como responsáveis as organizações e indivíduos que as desenvolvem, implantam ou operam.

Em outras palavras, devem ser justos, amplos, democráticos, seguros e responsáveis. Caberá a cada país introduzir esses conceitos nas leis que regulam o desenvolvimento de sistemas eletrônicos e sua relação com os seres humanos. Do ponto de vista da humanidade em geral, não poderiam existir melhores intenções. E, como se diz popularmente, “de boas intenções o inferno está cheio”.

Precisamos criar o quanto antes o arcabouço legal que vai garantir esses princípios — o que não será tarefa fácil. Para além das boas intenções, esses cinco princípios precisam ser regulamentados de forma clara, sem gerar dúvidas ou interpretações equivocadas ou dúbias.

Tomemos por exemplo Israel, que já faz parte da OCDE e subscreve esses princípios. Nesse pequeno país do Oriente Médio, com menos de nove milhões de habitantes, já existem 950 startups voltadas apenas ao desenvolvimento de sistemas de inteligência artificial em áreas que vão da venda de legumes à exploração espacial. Não há transparência sobre o que está sendo desenvolvido e como isso deve impactar na vida das pessoas.

Caberá às instituições de ensino superior aprofundar a discussão ética sobre a inteligência artificial e ver como é possível progredir sem denegrir. Fazer com que sistemas inteligentes sejam criados sem destruir empregos, vidas e países. A tarefa é árdua, mas possível e urgente.

*Frank Coelho de Alcantara é engenheiro, mestre em Ciência, Gestão e Tecnologia da Informação pela UFPR e coordenador do curso de Engenharia da Computação do Centro Universitário Internacional Uninter.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.