Grandes benefícios da IA não podem encobrir seus potenciais risco
Parte da sociedade adota discurso demasiadamente favorável a essa tecnologia, o que pode atrapalhar seu desenvolvimento realmente benéfico às pessoas
A inteligência artificial já transformou o mundo, e esse processo está apenas engatinhando. Suas potencialidades beiram o inimaginável e devemos nos apropriar de todos esses recursos. Ainda assim, temos que cuidar para que isso não se torne um ópio que turve nossa compreensão dos riscos que ela também embute, mas vejo isso já acontecendo de forma preocupante.
Constato esse problema em pesquisadores, parte da imprensa, grandes empresários e outros líderes da sociedade, que abraçam a IA de maneira inconsequente, como se tudo dela fosse bom para a humanidade. Essas pessoas adotam um discurso deslumbrado e intransigente, criticando aqueles que propõem um debate equilibrado sobre benefícios e riscos da IA.
No dia 8, a Academia Real das Ciências da Suécia concedeu o Prêmio Nobel de Física a Geoffrey Hinton, da Universidade de Toronto (Canadá), e a John Hopfield, da Universidade de Princeton (EUA), pelos seus trabalhos pioneiros com redes neurais artificiais e com machine learning, bases da IA. Essa turma correu para incensar a vitória dessa tecnologia, escondendo que, apesar de ser considerado o “padrinho da IA”, Hinton também é um forte crítico ao seu desenvolvimento descuidado.
A defesa inabalável da IA é criadora e criatura de um profundo processo de desordem informacional que beneficia as empresas do setor. Não é um fenômeno novo: há muitos anos, as big techs manipulam a opinião pública em favor das redes sociais. Com isso, mesmo diante dos seus evidentes problemas, uma parcela significativa da população ainda as apoia irrestritamente por seus inegáveis benefícios, mas ignorando os igualmente óbvios prejuízos.
Falhamos ao impedir que essa desinformação favorável às redes sociais criasse raízes tão profundas, que impediram que essas plataformas evoluíssem de maneira mais benéfica à humanidade. Não podemos repetir o erro com a inteligência artificial!
Veja esse artigo em vídeo:
Além de comemorar o reconhecimento de seu trabalho pelo Nobel, Hinton aproveitou a entrevista que concedeu logo após o anúncio de sua vitória para reforçar essas preocupações. E já no segundo minuto de sua fala, criticou Sam Altman, CEO da OpenAI (criadora do ChatGPT), por, segundo ele, “estar muito menos preocupado com a segurança que com os lucros”, algo que classificou como “lamentável”.
Para ele, as transformações pela IA serão comparáveis às da Revolução Industrial, com a diferença que, em vez de superar as pessoas na força física, superará na força intelectual. “Isso trará aumentos brutais na produtividade, mas também temos de nos preocupar com uma série de possíveis consequências ruins, particularmente com a ameaça de que essas coisas saiam do controle”, disse.
Em maio do ano passado, Hinton se demitiu do Google para, segundo ele, poder criticar livremente os caminhos da IA e a disputa sem limites entre as big techs, o que poderia criar “algo realmente perigoso”. Ao The New York Times, disse na época estar arrependido por ter contribuído com isso. E na entrevista do dia 8, disse que, apesar disso, teria feito tudo de novo, pois, na época, não podia prever esses riscos no futuro.
Hinton comemorou o prêmio na sede do Google, junto com ex-colegas e ex-alunos, entre eles Ilya Sutskever, ex-cientista-chefe da OpenAI, que tentou demitir, sem sucesso, Sam Altman no ano passado. E o local escolhido é emblemático, demonstrando como a ciência no setor depende umbilicalmente dos recursos das big techs para financiar suas milionárias pesquisas.
Não há nenhum problema na colaboração de corporações e cientistas, muito pelo contrário: se bem conduzida, isso pode trazer grandes benefícios à humanidade. Deve-se apenas ter cuidado para que isso não se distorça para gerar apenas lucros irresponsáveis, como pode estar acontecendo com a IA.
Alterações da realidade
Para que as empresas lucrem mais, a opinião pública precisa ser convencida de que tudo está bem, e que suas decisões são tomadas para o bem comum. E os diferentes atores sociais mencionados anteriormente têm um papel essencial nisso.
É o caso de Bill Gates, que vem, há meses, dando incontáveis entrevistas e palestras sobre como a IA tornará o mundo um lugar melhor para todos. Lançou até uma série na Netflix (muito bem-feita), chamada “O Futuro de Bill Gates”, onde reforça a ideia.
O fundador da Microsoft, maior investidora da OpenAI, afirma repetidamente que a IA permitirá que as pessoas trabalhem menos dias na semana. Em tese, isso poderia acontecer, porém o mais provável é que, com o aumento de produtividade, gestores demitam em massa, com os remanescentes trabalhando todos os dias da semana.
Em 2021, pesquisadores da Universidade de Cambridge (Reino Unido) publicaram um estudo que explicava mecanismos de ataque à capacidade da população de adquirir conhecimento. E uma das principais ameaças são as pessoas que disseminam desinformação, divididas em dois grupos. O primeiro, batizado de “adversários”, deliberadamente manipula informações, promove ataques ou incita seguidores para confundir ou enganar a população para atingir seus objetivos. O segundo, os “trapalhões”, de maneira inocente e até bem-intencionada, espalha essas bobagens, como acontece naquele grupo da família no WhatsApp.
Pelas suas informações privilegiadas, é muito mais provável que Gates e Altman sejam “adversários”, e não “trapalhões”. Nesses últimos, estão aqueles que usam a IA de maneira pouco crítica, achando que ela é uma grande assistente, quando, na verdade, em breve podem perder seu emprego para ela, pelo uso limitado que fazem.
No final das contas, o excesso de informação sobre a IA, a polarização da sociedade e o papel dos “adversários” e dos “trapalhões” podem atrapalhar profundamente o desenvolvimento de bons usos da IA, pois a população pode adquirir uma visão pouco crítica sobre essa tecnologia. Assim como aconteceu as redes sociais, muito mais que as pessoas, as grandes beneficiadas desse processo são a big techs.
Hinton afirma categoricamente que não se sabe como evitar os riscos criados pela IA. Por isso, ele afirma que mais pesquisas independentes sobre isso são urgentes. Caso contrário, esse processo de degradação cognitiva seguirá seu curso, até que eventualmente seja tarde demais e seus temores se concretizem.
Temos que nos apropriar de tudo de bom que a IA nos oferece, e não é pouca coisa. Mas não podemos ser deslumbrados inconsequentes diante disso.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!