Resolver moderação de conteúdo exige humanos para evitar a falta de naturalidade, algo que a IA não consegue fazer

Limitações da revisão humana não suplantam os riscos que corremos sem ela

Author Photo
12:30 pm - 03 de novembro de 2020

Mesmo que encontremos com facilidade o termo “inteligência artificial” em cada deck de investidores, ou na página “Sobre nós” do site de uma empresa, é, na verdade, bastante raro testemunhar uma IA de verdade, por se tratar de algo muito complicado de se fazer. Existe muita diferença entre Machine Learning, Deep Learning e enganação.

Dito isso, até uma IA de verdade pode se enganar. Recentemente, houve uma tendência no TikTok em que pessoas usavam a frase “Comi massa hoje”, não para falar sobre o que prepararam para o jantar, mas como um código para pedir ajuda em momentos de pensamento suicidas.

Não foi culpa do TikTok que o algorítimo não detectou a tendência rápido o bastante para parar de promover esses posts, porque a inteligência artificial precisa de um amplo histórico de dados para funcionar. Em ciência da computação, trata-se deste tipo de ocorrência como “garbage in, garbage out”. É por isso que a IA consegue bater humanos em xadrez ou Mahjong, mas nunca conseguiria ter inventado esses jogos.

Isso foi algo que discuti com o professor de Harvard Steven Pinker no ano passado, quando ele fez referência à “arte de perguntar”, algo ainda reservado para humanos. Enquanto a IA irá melhorar na área da computação, nunca vai conseguir se apaixonar ou elaborar uma questão.

Inteligência artificial é muito importante, e atualmente é responsável por uma parte grande na moderação de conteúdo online. Ela decide o que é aceitável, danoso e o que deve ser classificado como discurso de ódio ou falso, bem como o que é impulsionado, o que é viral e o que fica para trás. No entanto, como temos visto nas grandes plataformas de tecnologia nos últimos anos, ou pelos exemplos acima, existem problemas fundamentais, e mais do que isso, há uma grande questão: a IA é o bastante para moderar conteúdo ou anúncios, ou humanos são necessários?

Máquinas

IA é uma revolução incrível. Provavelmente é uma invenção tão grande como a eletricidade ou a internet, e será uma grande parte de nossas vidas para sempre. Contudo, há dois pontos importantes sobre a inteligência artificial:

IA só funciona quando há dados suficientes para alimentar o seu modelo. Por exemplo, a inteligência artificial não conseguiu prever a disseminação e o impacto do COVID-19 porque não existiam dados para servir de modelo para medir o impacto de forma efetiva. Quando o Face ID foi disponibilizado como uma maneira de desbloquear o iPhone, a função não conseguia ler o “rosto de quem acabou de acordar” dos usuários. Não havia dados suficientes para sugerir que as pessoas talvez tivessem uma aparência diferente pela manhã, quando tinham acabado de acordar, do que no restante do dia.

Alguns erros são muito grandes. Por exemplo, se a Alexa cometesse um erro e, de acordo com o meu comportamento, sugerisse que eu comprasse um pacote de café que eu não queria, não é grande coisa. É irritante, mas nada de mais. Se o YouTube classificasse um vídeo como “animais” pensando que era sobre cachorros, mas não fosse, não seria um grande problema. Irritante, sim, mas nada de mais. Eu poderia seguir com esses exemplos. Porém, se decidirmos usar a IA em assuntos mais sérios, como se devíamos ou não ter levado a sério o começo de uma possível pandemia, ou em assuntos relacionados a democracia, depressão, racismo ou direitos humanos, isso levanta uma questão maior. A IA é suficiente?

Humanos

Quando se trata de assuntos sérios, como moderação de conteúdo, também devemos reconhecer a limitação dos humanos. As pessoas ficam cansadas, enquanto um computador tem energia infinita, não importa se esteja revisando cem ou mil artigos. As pessoas são parciais, tem dias bons e ruins, e assim por diante. Se considerarmos uma abordagem mais humana para a moderação de conteúdo, é importante que as equipes de revisão desse conteúdo sejam bastante diversificadas e contem com apoio.

Quando se percebeu que “comer massa” não era sobre comer massa, e sim um codinome para suicídio, foram os humanos que descobriram. Quando o COVID-19 começou, os humanos que notaram sua disseminação, não máquinas. Quando um dispositivo de reconhecimento de imagens reconheceu pessoas negras como gorilas, foram humanos que notaram, não uma IA.

Humanos + Máquina

O futuro contará com máquinas que nos ajudarão a viver melhor através de tantas interações diárias. Entretanto, estou convencido de que, em assuntos sérios, existem problemas humanos que precisam de humanos para serem resolvidos, com a IA em um papel de apoio.

As limitações da revisão humana não suplantam os riscos que corremos sem ela.

Eu escolho humanos (com IA).

*Adam Singolda é CEO e fundador da Taboola

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.