Bem me quer, mal me quer: a ética digital por Şerife Wong

Artista de origem turca empresta sua visão criativa para fazer dos algoritmos e da IA mais justos – e ela conta ao IT Forum como se faz

Author Photo
5:00 pm - 08 de setembro de 2021
Serife Wong Pesquisadora do Berggruen Institut A artista e pesquisadora do Berggruen Institute, Şerife Wong (Foto: Divulgação)

Por Eloá Orazem

Nada é preto e branco para a artista Şerife (Sherry) Wong, que usa sua criatividade para garantir que a tecnologia tenha todas as cores. Pesquisadora do Berggruen Institute, a americana foca sua atenção para explorar as implicações sociais da inteligência artificial, servindo de consultora ética para empresas de diferentes portes. Com passagem pelo Rockefeller Foundation Bellagio Center, Şerife acumula ainda a função de diretora do Digital Peace Now, um movimento que reúne 130 mil cidadãos globais de 170 países dispostos a manter a internet um lugar diverso, respeitoso e criativo.

Trazendo toda essa bagagem pessoal, a consultora agora vê seu poder de fogo aumentar dentro da ORCAA (O’Neil Risk Consulting & Algorithmic Auditing) – agência criada por Cathy O’Neil para auxiliar companhias na auditagem dos riscos de seus algoritmos.

“Vou ter a chance de atuar em grandes empresas, mas numa base meio que individual, visto que cada algoritmo traz à tona diferentes perguntas, necessidades e, consequentemente, respostas”, diz.

Em entrevista exclusiva ao IT Forum, Şerife confessa que na área de ética digital há muitas palavras bonitas e temas abrangentes, mas poucas ações práticas. Para ela, não é preciso inventar a roda, porque até técnicas antigas de protestos, como ligar para representantes cobrando posições e satisfações, são eficientes. “Temos que regulamentar essas empresas, porque só assim as ideias saem do papel”, aposta.

Você trabalha como artista, mas também lida com inteligência artificial, como essas duas áreas que, aparentemente, têm pouco ou nada a ver se encontram?

Artistas são ótimos para quebrar paradigmas. Engenheiros e cientistas desenvolvem mecanismos e ferramentas, mas são artistas quem explora os limites, eu acho. Tenho a impressão que, mesmo em um laboratório, momentos de epifania acontecem graças a fatores externos, de mistura, sabe? Porque se você trabalha em um escritório, com colegas que têm as mesmas habilidades, opiniões e vivência, tenho a impressão que a inovação passa a ser rarefeita – tudo funciona de uma maneira meio que igual. Agora, se você trabalha em meio à diversidade, é natural que tenha novas ideias, porque está exposto a novas opiniões e experiências. Pra mim, artistas são criaturas que tradicionalmente buscam essa mistura. Um amigo uma vez disse algo que eu gosto muito: um artista é um eterno migrante. Isso significa que um artista sempre muda de campo, disciplina, negócios e área de estudo. E, a cada mudança, ele leva consigo esse conhecimento. É uma polinização de ideias. Acho que mais pessoas deveriam trabalhar de forma híbrida, atuando em diferentes áreas, porque o mundo só tem a ganhar com isso.

Mas como a sua experiência com a arte ajuda a moldar o seu trabalho hoje, como consultora de ética na inteligência artificial?

Como artista, eu consigo visualizar o que pode dar errado do ponto de vista humano e social. Não tenho nenhuma bagagem jurídica, e tampouco domino a tecnologia por trás dessas inovações. Os engenheiros que estão com a mão na massa sabem exatamente o que acontece, mas eu sou uma pessoa “comum”, e chego como uma estrangeira, uma outsider, e coloco a minha sensibilidade para entender como aquela ferramenta vai nos impactar a nível individual e coletivo, porque isso nos afeta, sim. Todos usamos a tecnologia. Estamos constantemente grudados em nossos celulares, usando QR codes, a internet e tantas outras ferramentas. Nessa pandemia, por exemplo, usamos a tecnologia para mapear e rastrear o contágio do vírus, então nos impacta de todas as maneiras. Sabe, às vezes mandamos um currículo e não conseguimos um emprego porque um computador leu o documento e decidiu que não éramos adequados à oportunidade. Mas falta transparência para entender esse processo de tomada de decisão, por exemplo.

A ética na inteligência artificial não é algo exatamente novo, já que isso vem sendo discutido na mídia, na academia e até nas empresas, mas o que você diria que mudou?

Quando eu comecei nessa área, tinha muito hype. A gente achava que a inteligência artificial ia mudar o mundo. Sério, acreditávamos que ela afetaria todos os setores, que seria a galinha dos ovos de ouro e que nos salvaria das encruzilhadas da mudança climática. Depois dessa hype, a atenção se voltou para a questão da ética na inteligência artificial, que acabou se tornando um negócio em si. O que estamos vivendo agora é um choque de realidade. O maior acontecimento nessa área, que devemos prestar muita atenção por sua simbologia, foi quando o Google demitiu a Timnit Gebru e depois a Margaret Mitchell, do time de ética na IA.

Por que acha que esse momento foi tão importante?

Porque nós vimos que existia muito investimento no desenvolvimento da inteligência artificial. O Google colocou muito, mas muito dinheiro mesmo nesse setor, porque querem ser os líderes. Quando falamos de dados, não há muitos competidores – o Google é, provavelmente, o maior player. E ainda assim, eles não se importaram o suficiente para ter legitimidade na área, e então a prioridade da empresa foi manter as aparências e desligar essas pessoas. Foi um chacoalhão para muitos de nós da indústria de ética em IA. Uma companhia das proporções do Google pode, realmente, ser ética? Você é ouvido lá dentro, ou seria uma ética de aparências? A companhia está usando a sua imagem e suas palavras para continuar fazendo as coisas do mesmo jeito de sempre, ou estão promovendo mudanças significativas? Essas são algumas das muitas perguntas que herdamos desse acontecimento, e que podem ser aplicadas a qualquer uma das grandes empresas de tecnologia.

Você arriscaria algum palpite sobre essas questões?

Essas companhias são como máquinas, engrenadas para ganhar dinheiro, então é muito difícil mudar a estrutura de dentro para fora. Para ser sincera, eu nem sei se é possível.
A solução seria a regulamentação por parte do governo? Acho que a grande questão aqui é a discussão da autorregulamentação de uma empresa versus regulamentação externa, por parte do governo. Eu sou a favor da segunda, apesar de ser ainda inexpressivo.

Por que você é a favor da interferência governamental?

Porque aí as pessoas terão que agir e, de fato, fazer algo. Se é uma lei e você é obrigado a segui-la, então todo mundo vai arregaçar as mangas e colocar a mão na massa. O foco deixa de ser o mercado ou o seu concorrente, porque na autorregulamentação, você passa a especular como aquilo vai afetar o seu negócio e como os rivais podem explorar isso ou aquilo. Se ninguém se importa com a ética. Além disso, a gente fica refém da transparência das empresas, caso tomemos o caminho da autorregulação, e se tem uma coisa que sabemos, é que grandes companhias de tecnologia são ótimas em guardar segredos. Por conta do desenvolvimento de softwares e novas tecnologias, elas não querem que as pessoas saibam o que se passa, mas se o governo exigir honestidade, regulamentando o uso de dados, de interação e etc, então todos seremos obrigados a cumprir com o acordo.

Você acha que a inteligência artificial tem poder para mudar a forma como nos comunicamos, nos relacionamos e, eventualmente, moldar a sociedade?

Acho que é um efeito progressivo. Quer dizer, o impacto da internet é tão grande… Nos últimos 30 anos ela certamente moldou a forma como nos comunicamos, e isso mudou a sociedade, porque agora tudo tem mediação, sabe? Tipo, eu converso com o meu pai só pelo Facebook. Ele é mais velho e prefere não usar o telefone por conta da audição prejudicada, então trocamos mensagens pelas redes sociais. É um papo mediado. O problema é que eu fico automaticamente sujeita a uma mediação feita por algoritmos, porque tudo o que eu vejo no Facebook foi escolhido pelo computador. A máquina me mostra o que acha que eu quero ver. O problema é que nós não temos grandes escolhas em como somos mediados, e eu acredito que possa existir um mundo onde tenhamos opções. As coisas não precisam ser automáticas, entende? Há quem diga que é muito tarde para discutir as leis de privacidade, que esse navio já deixou o porto e que depois que os nossos dados foram expostos, não há nada que possamos fazer para reverter a situação. Bem, eu não acredito nisso. Com boas regulamentações e com fiscalização, acho que podemos mudar tudo bem rápido.

Quais deveriam ser os primeiros passos nesta direção?

É complicado, sobretudo quando falamos de regulamentação da IA. Acho que nossas atenções estão voltadas para a Europa nesse sentido, e não para os EUA, porque parece que eles estão liderando um caminho estratégico. A questão é que o volume de dados coletados pelos Estados Unidos e pela China, bem como o método para extração desses dados e a quantidade de dinheiro investido nesse segmento, é incomparável. Dito isso, é preciso reconhecer o sucesso do Regulamento Geral sobre a Proteção de Dados (GDPR, na sigla em inglês). Por conta dela, companhias do mundo todo precisaram ajustar seu modelo de negócio e tiveram que mandar emails para todos os usuários pedindo permissão para usar ou coletar determinados dados. E adivinha? Todo mundo cumpriu com a regra, porque agora é lei.

Mas como podemos manter as companhias “na linha”? Cobrando uma série de multas?

Acho que uma ótima maneira de fazer isso é tornar obrigatória a auditoria desses sistemas, porque tudo depende muito do contexto. Estamos agora tendo esses princípios, e eu não sei se todo mundo sabe, mas publicamos centenas de princípios éticos nos últimos dois ou três anos, progressivamente. E toda empresa tem um conjunto de 5 a 15 regras, e dizem que a inteligência artificial precisa ser justa, transparente e responsável. Também dizem que tem que ser centrada no ser humano e respeitar os direitos humanos. O problema é que eles falam isso, mas não existe nada que nos garanta que exista algum tipo de ação por trás desse discurso todo. A gente acaba tendo esse monte de ideias espalhadas por aí, mas elas não significam nada, porque os termos são abrangentes e abstratos. É desafiador pensar em definições mais específicas, porque tudo depende de contexto. Você pode usar um software em uma comunidade para uma coisa, e em outro lugar, esse mesmo software pode ser usado para outros fins. Todo mundo parece surpreso com isso, mas eu acho que a saída é termos padrões de checagem: como podemos ter certeza que uma ideia ou tecnologia é boa ou benéfica?

Mas não lhe parece uma utopia pensar que a inteligência artificial pode ser perfeitamente ética? Porque se essa tecnologia é criada e treinada por seres humanos, e somos falhos…

Pois é, nós chegamos com um histórico e não acho que a IA vai conquistar 100% dos nossos objetivos, mas é importante reconhecer que há quem trabalhe para isso. São pessoas que discutem riscos existenciais, pessoas que teorizam e tentam prever possíveis perigos relacionados à IA. Eu tenho certeza que teremos melhores ferramentas, melhor inteligência artificial e, com isso, novos riscos. Não acho, contudo, que seja esperto se antecipar e acreditar que a inteligência artificial vai extinguir a humanidade, ou coisa parecida. Tudo o que pertence ao futuro é uma grande especulação. O que a gente conhece é só passado, e eu acho que a IA entra justamente aí, para automatizar o nosso passado. Todos os dados coletados são o reflexo do que somos, inclusive do nosso lado mais sombrio, de nosso racismo, sexismo e tudo mais que não nos orgulhamos. Tudo isso está em nossos dados. Então, quando treinamos as máquinas usando nossos dados, estamos treinando para que a inteligência artificial seja como a gente. Quem sabe seja possível imaginar um mundo em que treinamos as máquinas para serem mais como queremos ser em vez do que somos. Mas aí, quem decide o que queremos ser? A resposta não é a mesma para todo mundo, porque ela leva em consideração cultura, valores e outras tantas diferenças que fazem o contexto todo.

Você acha que é hora de falarmos desse assunto, de ética e moral na tecnologia, como um todo, e não ficarmos isolando as regras de acordo com países e estados? Porque no Brasil nós estamos acostumados com tais regras, e aí viajamos à Europa e nos deparamos com outros conjuntos de leis… Talvez falte uma discussão mais globalizada a respeito disso?

Temos muitas conversas globais e locais acontecendo, então não acho que esse seja o problema – o que nos falta é ação, com certeza. Nós já estamos meio que fazendo tudo de forma individualizada. Se você olhar para a forma como a inteligência artificial vem sendo desenvolvida, a gente entra numa narrativa de “EUA versus China”, “Google versus Facebook”, sempre pensando em confrontos que se pressupõem um grande vencedor. Acho que, quando o assunto é inteligência artificial, a verdade está bem distante disso. Basta ver os estudos, as teses e as teorias para ver com clareza que há muita colaboração. Um estudante da Noruega trabalhando ao lado de um canadense, que trabalhou com chineses e também com brasileiros, e todo esse trabalho se baseia numa teoria desenvolvida na Itália. Então o desenvolvimento já é muito globalizado, mas a governança está ficando para trás nessa coisa de colaboração. Tipo, vejo muitos erros nas nossas estratégias de combater a mudança climática e isso ecoa na nossa regulamentação da inteligência artificial, porque nós não soubemos comunicar bem, não discutimos frameworks e formas de mitigar os prejuízos. Então, basicamente, cada país tem que ter sua própria regulamentação, mas isso tem que acontecer em paralelo às conversas coletivas de acordos internacionais.

Acordos assim, orquestrados, talvez possam ajudar a evitar casos como os que temos visto, de reconhecimento facial enviesado…

Sim, esse tipo de viés acontece porque, apesar de termos muitos rostos diferentes, os algoritmos são treinados em escolas de engenharia, onde as caras mais comuns são de homens brancos. Isso significa que o computador fica craque em reconhecer o rosto de um homem branco, mas pouco eficiente na hora de reconhecer a cara de uma mulher negra. É curioso que sejam sempre as mesmas pessoas que saiam prejudicadas, não? São sempre os mais pobres e mais vulneráveis; sempre aqueles que historicamente foram deixados de lado no futuro – e isso é muito injusto.

Você diria que isso é o que mais te tira o sono, ultimamente?

Olha, é impossível desempenhar esse tipo de trabalho sem sofrer ansiedade, mas o que tem mais mexido comigo nos últimos tempos são as questões climáticas. Tem muito IA envolvida nisso, mas não sei se a inteligência artificial ou a tecnologia vai resolver tudo. Então me preocupo que a gente pareça colocar tanta fé em descobrir soluções rápidas para os nossos problemas, usando a tecnologia. É como se os problemas não fossem criados pela tecnologia, porque ela pode ser muito negativa para o meio ambiente. Tipo, a internet não estava usando nada da nossa eletricidade há cerca de 30 anos. Agora, nosso consumismo está ligado à conveniência. E não acho que isso seja remediado a partir de uma ação individual, tem que ser coletiva e orquestrada, mas não queremos fazer isso, né? É muito trabalhoso, e todos teríamos que mudar.

Qual sua opinião sobre a quebra ou a divisão das grandes empresas de tecnologia?

Esse é um tema super importante, e estamos vendo a dimensão disso este ano. Essas companhias já foram chamadas perante o Congresso [dos Estados Unidos] para responder a diversas perguntas, porque elas têm medo de serem quebradas em pedaços menores, o que não seria difícil de fazer. Você pode ver o Facebook, que eu uso para falar com o meu pai. A rede social pode ser rapidamente desmembrada, porque ela é a soma de outras companhias: você tem o Facebook, o Whatsapp e o Instagram – são três empresas, é fácil mesmo de fazer. É por isso que eles estão tentando estreitar os laços desses negócios, para que seja difícil separá-los. Para lidar com esse medo, eles também fazem muito lobby para garantir que nossa política não freie o monopólio. Isso não é bom pra ninguém, na minha opinião. Além disso, as companhias de tecnologia têm excelentes relações-públicas, porque você pode perguntar para um monte de gente o que eles pensam, por exemplo, da Amazon e de seu fundador Jeff Bezos, e muita gente vai dizer que ele é um modelo, que ele mereceu tudo isso, porque ele foi inteligente e trabalhou pela grana que tem. Tem uma piada na internet que diz que, quando sua fortuna alcança a marca de um bilhão de dólares, você deveria ganhar um prêmio tipo “você venceu o capitalismo, parabéns”, e seria impossibilitado de acumular mais riqueza, porque não seria benéfico para mais ninguém. Você nem conseguiria gastar esse dinheiro com tanta rapidez. Quando você tem tanta grana, só a taxa de juros faz com que isso se torne uma coisa à parte, que vai acumular mais e mais. O sistema está super quebrado.

Muita gente acha que a solução é deletar sua conta junto àquela companhia. Sabe, dizem que vão sair do Facebook ou do Instagram, e cancelar a mensalidade da Amazon Prime. Não estou certa de que seja uma estratégia eficaz…

Acho que a forma mais eficaz de mudar as coisas em grande escala, como um indivíduo sem grandes poderes ou conexões, é trabalhando ao lado de pessoas que pensam da mesma forma para que, juntos, direcionem a energia em direção a uma meta. Acho que seria essa organização, uma coisa meio de protesto, que chacoalhe o sistema, a forma mais eficaz de agir. Isso e, claro, votar e cobrar seus representantes – algo que falamos que vamos fazer, mas nunca fazemos. E funciona, viu? Quando um congressista ou representante recebe um grande volume de ligações e queixas, eles tendem a agir. O curioso é que são pessoas como os meus pais que ligam para reclamar, não são os jovens. Parece bobagem, mas esse tipo de protesto à moda antiga, por um telefone, também funciona. Por fim, acho que educar aqueles que nos cercam é outra metodologia eficaz, sabe? Fale com o seu círculo social, com a sua comunidade, amigos e familiares. Ouça suas preocupações e suas percepções, e apresente dados que os ajude a enxergar além.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.