Nils Köbis: seguir cegamente a IA pode ser potencialmente catastrófico

Pesquisador alemão publica estudo que mostra que IA pode ser facilitadora, parceira e até encorajadora de comportamentos antiéticos

Author Photo
4:15 pm - 23 de julho de 2021
Nils Köbis inteligência artificial Nils Köbis. Foto: Divulgação

Recorremos às máquinas para fazer contas, para encontrar o restaurante, para decidir uma viagem e para navegar pelas ruas e pela vida. O algoritmo virou uma espécie de conselheiro, turbinado por uma inteligência artificial que “estuda” para se moldar à nossa imagem e semelhança. Poderiam as máquinas, então, aprender também as nossas falhas? Dado que somos seres altamente corruptíveis, como o mundo digital muda ou potencializa isso?

Foram essas as perguntas que o pesquisador alemão Nils Köbis se propôs a investigar. Um dos fundadores da Rede Interdisciplinar de Pesquisa da Corrupção, Köbis fez dessas questões o centro de sua pesquisa de pós-doutorado no Instituto do Desenvolvimento Humano Max Planck.

Os primeiros passos de sua investigação foram publicados no estudo entitulado “Máquinas ruins corrompem a boa moral”, publicado em maio deste ano. Em conversa exclusiva com o IT Forum, Köbis conta um pouco mais de seu processo e descobertas, mas confessa que essas primeiras respostas abrem as portas para uma infinidade de novas perguntas urgentes.

IT Forum – Professor Köbis, poderia me explicar por que decidiu levar adiante essa pesquisa, relacionando inteligência artificial e comportamento humano?

Nils Köbis – Minha motivação para estudar a influência da inteligência artificial no nosso comportamento ético é uma espécie de spin off de uma outra pesquisa que fiz, sobre corrupção. Eu estava cursando meu pós-doutorado e investigando as raízes colaborativas da corrupção, porque sentia que era algo pouco explorado pela maioria dos cientistas comportamentais. Logo percebi que a maioria dos dados que tínhamos levavam em consideração apenas decisões tomadas em condição de isolamento.

Leia também: Mesmo sem regulação, startups de cannabis buscam tirar Brasil do atraso

IT Forum – Como assim?

N.K. – Imagine que você vai até o laboratório, senta-se sozinha e então encara um teste, um teste padrão, para mensurar a sua honestidade. Um dos testes que aplicamos se chama “o paradigma dos dados rolantes”, onde, basicamente, pedimos para que uma pessoa jogar um dado e então nos dizer que número obteve. A pessoa em questão é paga de acordo com esse número relatado. Aí temos o conflito entre ser honesto e dizer o número que realmente aparece no dado, ou e ser desonesto e ganhar um pouco mais de dinheiro. Esse experimento é feito há anos, em diferentes partes do mundo para ver se há alguma diferença cultural ou social.

IT Forum – Chegamos a alguma conclusão com esse teste? Há, afinal, alguma diferença?

N.K. – Bem, esse teste nos mostrou que nós, humanos, adoramos pensar que somos éticos e morais, mas também adoramos trapacear um pouquinho para ter mais benefício. Mas o que eu queria mesmo dizer é que esse experimento é aplicado em pessoas que estão sozinhas e tomam as decisões sem nenhum tipo de supervisão ou companhia, certo? Então elas estão num laboratório, isolados num cubículo. Já no mundo real, a maioria do comportamento antiético, ou melhor, o comportamento ético geral é colocado à prova em um ambiente social, onde talvez sejamos influenciados por amigos e por quem nos cerca. Se o seu colega lhe oferece algo, mesmo que seja algo suspeito, você fica mais inclinado a dizer sim e aceitar. Então a minha pesquisa queria explorar isso: as forças sociais que influenciam o nosso comportamento ético.

Recentemente, porém, passei a estudar tudo isso, mas sob o prima da inteligência artificial, porque os agentes de IA estão desempenhando um papel cada vez mais social nas nossas vidas. Eles nos recomendam filmes, recomendam até os nossos parceiros… poderia dizer que muitas das nossas ações sociais, hoje, passam pela inteligência artificial. Então passei a me perguntar: se nossas decisões são afetadas pela IA, poderia o nosso comportamento ético ser alterado ou influenciado por ela?

IT Forum – Mas você não acha que, em maior ou menos escala, somos todos corruptíveis?

N.K. – Essa é uma ótima pergunta, e tenho pensado nela há anos, desde que comecei as minhas pesquisas, porque existe essa ideia de que a corrupção é uma bola de neve: ela começa com algo pequeno, e vai progressivamente aumentando. É como se, digamos, você conseguisse uma nota melhor numa prova porque você colou e não foi pego. Depois você trapaceia um pouco mais e mais, porque faz das suas atitudes passadas uma referência. Talvez você olhe para trás e diga “bem, se eu já cheguei até aqui, posso dar um passo além”. Por isso me dediquei a entender a bola de neve da corrupção. Além disso, um dos argumentos que ouço é quanto mais poderosa uma pessoa é, mais ela talvez se sinta no direito de cometer certas transgressões. Mas, na verdade, o que descobrimos em nossos estudos é que as pessoas tendem a ser mais corruptíveis quando podem fazer tudo de uma vez só, e não pouco a pouco. Ao mesmo tempo, o que acho interessante, é que mesmo quando as pessoas estão trapaceando e sabem que é uma mentira, elas geralmente tendem a se sentir bem consigo. Logo, é preciso ter consequências graves ou ser uma grande corrupção para que as pessoas se sintam, de fato, mal por suas ações. Ninguém pensa que é uma pessoa ruim.

IT Forum – A não ser que sejam descobertas…

N.K. – Sim, mas às vezes, quando as pessoas são pegas, elas podem talvez demonstrar vergonha ou culpa como estratégia, porque buscam uma absolvição ou um julgamento mais brando. E isso nos mostra quem as pessoas realmente são, sabe? Pensando pelo lado positivo, podemos dizer que todos queremos ser bons cidadãos e éticos. Agora, com toda essa tecnologia, o que nos resta é questionar se isso nos ajuda a ser melhores ou se facilita que alguns usem ferramentas digitais em benefício próprio.

IT Forum – Mas como exatamente a inteligência artificial impacta o nosso julgamento ético?

N.K. – No nosso estudo nós argumentamos que, basicamente, há quatro papéis importantes para a IA desempenhar para influenciar o nosso comportamento ético. O primeiro é de modelo; um exemplo. Isso significa que a gente pode observar o comportamento a partir dos algoritmos on-line, e podemos começar a imitá-los, sem nem mesmo saber da ação da inteligência artificial. O segundo papel é de conselheiro. Todos os dias recebemos conselhos de agentes IA, que fica mais e mais pessoal. Inclusive, o cientista chefe da Amazon, projeta que a Alexa, que já é usada por 100 milhões de pessoas, se torne uma conselheira mesmo. Ou seja, o dispositivo deixaria de ser apenas um assistente pessoal. Poderia ser o caso, aliás, de você perguntar algo para a Alexa de uma situação complexa na sua vida pessoal ou profissional, e a Alexa lhe dá um conselho, mas se ela priorizar o benefício individual ela pode lhe dizer algo como “traia o seu parceiro” ou “minta aqui e ali”.

IT Forum – As pessoas seguem os “conselhos” dos assistentes de voz?

N.K. – Temos algumas pesquisas que mostram que, frequentemente, as pessoas estão dispostas a aceitar o conselho da inteligência artificial, quando isso lhes permite trapacear em benefício próprio. Mas, voltando, além do papel de exemplo e de conselheira, a inteligência artificial pode ser uma parceira ativa. Isso significa que podemos nos engajar em comportamentos éticos ou antiéticos junto com os algoritmos. E esse é um dos maiores problemas, porque a IA se tornaria uma ótima parceira de crime, porque ela jamais rejeitaria um comando antiético, e tampouco lhe entregaria ou chantagearia por isso. O último papel é o que mais me preocupa, que é o de delegar. Frequentemente terceirizamos ao algoritmo algumas de nossas tarefas. Por exemplo, se optarmos por deixar a cargo do algoritmo a tarefa de definir os preços de um determinado produto, podemos achar bom ou fazer vista grossa para qualquer comportamento antiético do mecanismo, contanto que trapaceie os valores para que tenhamos mais lucros.

Leia também: Roger Grimes: as coisas só mudarão quando tivermos uma catástrofe digital

IT Forum – As máquinas, porém, não conseguem distinguir o certo do errado; o bom do mau. Elas são programadas de acordo com as nossas vontades, de forma que podemos dizer que os algoritmos são, também, criados à nossa semelhança.

N.K. – Concordo totalmente com você, por isso acho que os algoritmos precisam ser melhor monitorados, para que tenhamos certeza que eles foram programados para fazer, de fato, o que se propõem. Se um algoritmo tem como missão maximizar o lucro e analisar as ligações de call center, então ele pode entender que enganar os clientes pode ser a melhor estratégia para isso, e nada o impediria de recomendar uma estratégia antiética para tal. Dito isso, acho que o maior problema é o fato de que, na maioria dos casos, o comportamento antiético não é a intenção. Ou seja, as pessoas não estão programando os algoritmos para serem corruptos, mas isso surge como uma espécie de efeito colateral. Por exemplo, já sabemos que o Facebook pode ser bastante prejudicial a seus usuários, propagando desinformação e etc, mas a rede social nunca foi configurada para isso. Então, esses efeitos colaterais das novas tecnologias podem levar a consequências danosas até quem não está diretamente envolvido no assunto.

IT Forum – O que é mais curioso, na minha opinião, é que não desconfiamos das máquinas. Quando usamos, por exemplo, uma calculadora para fazer multíplas operações, nós presumimos que o resultado final mostrado no visor está sempre correto, mesmo que não saibamos como exatamente chegamos aquele número. Podemos ter esse mesmo tipo de comportamento permissivo com outras tecnologias…

N.K. – Com certeza, e isso é um risco. Há casos de pessoas que usaram o Google Maps e seguiram as instruções tão ao pé da letra que caíram em rios, porque o programa erroneamente disse que haveria uma ponte ali. Quero deixar claro que não tive contato com nenhuma evidência desse caso, mas ele é uma ótima ilustração do que pode acontecer quando acreditamos cegamente em um aparelho, preterindo a tecnologia aos nossos sentidos e instintos. No espaço social, é provável que tenhamos cada vez mais situações em que, por exemplo, se um juiz receber a recomendação de um algoritmo sobre uma sentença, ele ou ela tende a agir de acordo com o que diz a máquina, porque pensa que a programação é perfeita. Tudo isso é muito perigoso. Precisamos olhar com mais atenção à maneira como incorporamos os algoritmos e os conselhos que recebemos deles, porque se seguirmos cegamente a inteligência artificial, é provável que o destino final não seja nada bom.

IT Forum – Você acha que discussões maduras estão sendo feitas neste cenário? Alguém o procurou para discutir o seu trabalho?

N.K. – Minha inspiração era encorajar outros pesquisadores a trilhar esse caminho, para que tenhamos mais insights e junto desenvolvermos melhores mecanismos de controle e vigilância. Precisamos entender melhor esses mecanismos antes de sairmos por aí desenhando regras e leis. Só para lhe dar um exemplo, existe esse mecanismo bastante popular, uma intervenção de transparência em que, basicamente, um sistema de inteligência artificial precisa dizer que é uma máquina no começo de uma conversa, certo? O Google Duplex pode, sei lá, marcar consultas pra você, mas antes da interação, ele precisa dizer ao usuário que é um robô, uma inteligência artificial. E aí que a gente descobriu que as pessoas são menos propensas a seguir os conselhos e instruções de agentes IA que promovem essa honestidade, e mais propensos a seguir os que suprimem essa informação tecnológica. Neste caso, portanto, os estudos mostram que a honestidade não funciona. Dito isso, precisamos refinar os experimentos comportamentais de políticas públicas para ajudar, a longo prazo, a desenvolver políticas que sejam mais efetivas.

IT Forum – E você acha que estamos mais influenciáveis? Quer dizer, somos criaturas sociais, e frequentemente balizamos nossos gostos e opiniões a partir de quem nos cerca. O problema é que, com a tecnologia, o nosso círculo social ficou muito maior e diverso.

N.K. – Pois é, acho que a inteligência artificial alterou a ordem de escala. Peguemos o exemplo dos deep fakes. Se eu sou uma pessoa má intencionada e quero acabar com a sua reputação, eu poderia tentar criar um deep fake e torná-lo viral, fazendo com que milhões de pessoas consumissem aquele conteúdo num curto espaço de tempo. Aliás, uma pesquisa conduzida por ehttps://itforum.com.br/wp-content/uploads/2018/07/shutterstock_528397474.webpsos do MIT mostrou que informações falsas se espalham, on-line, sete vezes mais rapidamente do que as verdadeiras. Isso é deveras problemático, porque basicamente permite que dados mentirosos se espalhem com uma velocidade sem precedentes, enquanto, muitas vezes, a informação verdadeira, que refute a fake news, viaja mais devagar e alcança menos pessoas. Neste sentido, acho que a inteligência artificial é uma nova espécie e precisamos domá-la. Nós, seres humanos, temos um longo processo de evolução, mas ele nunca envolveu se comunicar com tanta gente, nessa escala massiva. Por isso vemos o fenômeno dos influencers, que são indivíduos que ganham poder suficiente para, por exemplo, alterar o curso das ações na bolsa de valor com um único tweet. Mais do que novas regras, precisamos ainda de um novo contrato social que nos ajude a navegar nessa realidade inédita.

IT Forum – Ok, entendemos que máquinas ruins podem corromper bons comportamentos, mas e o contrário também é verdadeiro? Podem as máquinas “ajustar” comportamentos ruins?

N.K. – Esse é um ponto bem importante, que foi levantado por um usuário do Twitter, que argumentava que há diversas maneiras para a inteligência artificial ajudar a melhorar a sociedade. Olha, eu acho que existe, sim, um grande potencial. Inclusive, alguns colegas defendem que poderemos criar um conselheiro moral perfeito. De fato, a IA tem acesso a muita informação, certo? Digamos que quero comprar um produto e eu me importo muito com a questão ambiental. Bem, a inteligência artificial pode analisar todos os produtos disponíveis, em larga escala, e me apontar com precisão qual seria a melhor escolha do ponto de vista ecológico. O agente IA é imparcial e leva em consideração apenas fatos, então é fácil acatar a sua sugestão aqui. Agora, digamos que um amigo recomende a diminuir o meu consumo de carne. Talvez a primeira reação seja “não, você diminua seu consumo de carne, por que está me falando isso?”. A inteligência artificial pode me falar a mesma coisa, e certamente você não vai refutar ou reagir da mesma maneira, ainda que não siga o conselho dado. Existe agora essa tendência de ir nessa direção, onde as pessoas usam aplicativos para fins medicinais, programando suas preferências morais e, a partir daí, inteligência artificial os lembra dessas preferências para ajudar o usuário a fazer melhores escolhas quando estão cansados ou famintos. Basicamente, quando uma pessoa sabe que não está na sua melhor fase, o algoritmo pode ajudá-la. Um exemplo clássico é ir ao mercado quando se está com fome: neste caso a inteligência artificial pode ajudá-lo a escolher os alimentos que sejam melhores para o indivíduo e o meio ambiente. Para encerrar, acho que há muito potencial e espaço para as máquinas nos melhorarem, mas ainda não vi uma pesquisa empírica que aponte para isso.

IT Forum – Causa preocupação saber que por trás de todos esses agentes IA existe uma grande companhia com fins lucrativos?

N.K. – Acertou na mosca, me preocupo demais com isso. Claro, é preciso ter mais estudos, mas acho que precisamos sempre olhar quem está por trás dos algoritmos, entender quem está se beneficiando e ganhando dinheiro com eles. Quem tira proveito dos algoritmos em mídias sociais cujo propósito é maximizar o tempo de tela e viciar os usuários? Temos que estar atentos a isso tudo, e talvez estabelecer estratégias de contra-ataque. Há diversos movimentos de pessoas que querem reinvindicar sua atenção e se tornar mais independente da tecnologia, porque não gostam do que está acontecendo.

IT Forum – E você acha que a moral e a ética andam de mãos dadas com a cultura? No Brasil, por exemplo, certas práticas são perfeitamente aceitáveis, mas são imorais em outros países. Como a inteligência artificial se adaptaria a essas nuances?

N.K. – Essa é a pergunta-chave. Acho que uma boa maneira de olhar para isso é pensar em carros autônomos. Bem, sabemos que as leis de trânsito variam de acordo com cada país, então temos, por exemplo, algumas regiões onde veículos autônomos são programados para proteger seus ocupantes a qualquer custo, mesmo que isso signifique atropelar pedestres quando um acidente é inevitável. Então você viaja para o país B, e lá a regulamentação é outra – o que você faz? Você faz o update no software do carro assim que cruza a fronteira? Ou teremos um consenso global, para que as regras sejam as mesmas no mundo todo? O que é interessante é que um grande e profundo estudo foi feito… aliás, acho que foi a maior pesquisa conduzida, com 40 milhões de pessoas respondendo às questões de como carros autônomos deveriam se comportar em situações de risco, e muitas alternativas foram apresentadas. Coisas como: salvamos três pessoas em vez de duas? O que acontece se tivermos que escolher entre um jovem e um idoso? As preferências variam muito ao redor do mundo. Eu achei particularmente fascinante que em países onde a desigualdade é mais latente, as pessoas são mais propensas a sacrificar moradores de rua. Então a questão aqui é: o quando essas preferências realmente importam? Até onde devemos respeitar as diferenças culturais e referências próprias? Esses são só alguns dos desafios que temos pelo caminho. Espero que isso nos leva a debates e pesquisas mais profundas, porque problemas globais pendem soluções globais.

IT Forum – Poderia a inteligência artificial mudar o nosso parâmetro moral, então? Se é tudo uma grande bola de neve, como você falou, e começamos pequeno, mas ao mesmo tempo estamos mais expostos a outros comportamentos, será que os nossos “limites” do que é aceitável ou não estão mudando?

N.K. – Tem muita gente pensando nisso também. Há quem diga que isso tudo é como uma leve inclinada no caminho, sabe? O que significa que, essa influência, para um indivíduo, pode não ser significativa, mas coletivamente, dada a escala das redes sociais, o impacto pode, sim, ser significativo. Precisamos pensar muito a respeito disso, porque há também a ideia de neutralidade. Ao tentar reproduzir um conceito de neutralidade, as redes sociais acabam beneficiando aqueles que têm poder. Precisamos olhar para as estruturas de poder por trás da inteligência artificial, e nos perguntar: como podemos ajudar a mudar essas estruturas de poder? Quem está se beneficiando com isso? Seriam as mesmas pessoas que já estão no poder? Se sim, como as redes sociais empoderam outras pessoas, então? Há muitos mecanismos que são úteis em vigiar os políticos, e talvez esse seja um caminho. No Brasil, por exemplo, temos o projeto Rosie, que tuita automaticamente qualquer caso suspeito de reembolso parlamentar. Há programas parecidos na Bélgica, que identifica se membros do congresso estão usando o telefone em sessão, e pede para que eles prestem atenção do que está sendo discutido. Acho que essas soluções podem ter um impacto grande na nossa sociedade.

 

 

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.