OpenAI usará LLM GPT-4 para moderação de conteúdo e para evitar vieses

Empresa espera eliminar vieses indesejados de moderação introduzidos por humanos durante processo de treinamento

Author Photo
10:00 am - 18 de agosto de 2023
ChatGPT GPT4 GPT-4 GPT OpenAI

A OpenAI, criadora do ChatGPT, está trabalhando no desenvolvimento de seu modelo amplo de linguagem (LLM) GPT-4 para automatizar o processo de moderação de conteúdo em plataformas digitais, especialmente em redes sociais.

A OpenAI está explorando a capacidade do GPT-4 de interpretar regras e nuances em documentações extensas de políticas de conteúdo, juntamente com sua habilidade de se adaptar instantaneamente a atualizações de políticas, conforme afirmado em um post no blog da empresa.

“Acreditamos que isso oferece uma visão mais positiva do futuro das plataformas digitais, onde a IA pode ajudar a moderar o tráfego on-line de acordo com políticas específicas da plataforma e aliviar o fardo mental de um grande número de moderadores humanos”, disse a empresa, acrescentando que qualquer pessoa com acesso à API da OpenAI pode implementar seu próprio sistema de moderação.

Leia mais: Como construir confiança dos funcionários à medida que a IA ganha terreno

Em contraste com a prática atual de moderação de conteúdo, que é completamente manual e demorada, o modelo de linguagem GPT-4 da OpenAI pode ser utilizado para criar políticas de conteúdo personalizadas em questão de horas, afirmou a empresa.

Para fazer isso, cientistas de dados e engenheiros podem utilizar um guia de política elaborado por especialistas em políticas e conjuntos de dados contendo exemplos reais de violações de política, a fim de rotular os dados.

Humanos ajudarão a testar a moderação de conteúdo por IA

Em seguida, o GPT-4 lê a política e atribui rótulos ao mesmo conjunto de dados, sem ver as respostas. Ao examinar as discrepâncias entre os julgamentos do GPT-4 e os de um humano, os especialistas em políticas podem pedir ao GPT-4 que apresente a razão por trás de seus rótulos, analise a ambiguidade nas definições de política, resolva a confusão e forneça mais esclarecimentos na política de acordo com isso”, afirmou a empresa.

Essas etapas podem ser repetidas por cientistas de dados e engenheiros antes que o modelo de linguagem grande possa gerar resultados satisfatórios, acrescentou, explicando que o processo iterativo resulta em políticas de conteúdo refinadas que são traduzidas em classificadores, permitindo a implementação da política e da moderação de conteúdo em escala.

Outras vantagens do uso do GPT-4 em comparação com a abordagem manual atual para moderação de conteúdo incluem a redução da rotulagem inconsistente e um ciclo de feedback mais rápido, de acordo com a OpenAI.

Leia também: O que é a IA generativa?

“As pessoas podem interpretar as políticas de maneira diferente ou alguns moderadores podem levar mais tempo para assimilar as novas mudanças na política, levando a rótulos inconsistentes. Em comparação, os LLMs são sensíveis a diferenças granulares na redação e podem se adaptar instantaneamente a atualizações de política para oferecer uma experiência de conteúdo consistente para os usuários”, afirmou a empresa.

A nova abordagem, segundo a empresa, também requer menos esforço em termos de treinamento do modelo.

Além disso, a OpenAI afirma que essa abordagem difere da chamada IA constitucional, na qual a moderação de conteúdo depende do próprio julgamento internalizado do modelo sobre o que é seguro. Várias empresas, incluindo a Anthropic, adotaram uma abordagem de IA constitucional ao treinar seus modelos para serem livres de viés e erros.

No entanto, a OpenAI alertou que viés indesejados podem se infiltrar nos modelos de moderação de conteúdo durante o treinamento.

“Assim como em qualquer aplicativo de IA, os resultados e a saída precisarão ser cuidadosamente monitorados, validados e refinados por meio da manutenção de seres humanos no processo”, afirmou a empresa.

Veja também: O que está acontecendo com o Google Assistente?

Especialistas do setor consideram que a abordagem da OpenAI para moderação de conteúdo tem potencial. “O GPT-4 é um modelo super capaz, e a OpenAI tem uma corrente interminável de usuários tentando fazer com que ela faça coisas prejudiciais. O que é ótimo como dados de treinamento”, disse Tobias Zwingmann, Sócio-Gerente da empresa de serviços de IA Rapyd.AI.

Se o modelo de linguagem grande da OpenAI puder ser utilizado com sucesso para a moderação de conteúdo, isso abrirá um mercado de bilhões de dólares para a empresa.

O mercado global de serviços de moderação de conteúdo, de acordo com um relatório da Allied Market Research, foi avaliado em US$ 8,5 bilhões em 2021 e projeta alcançar US$ 26,3 bilhões até 2031, crescendo a uma taxa de crescimento anual composta de 12,2% de 2022 a 2031.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Anirban Ghoshal, Computerworld

Anirban Ghoshal é redator sênior. Ele cobre software empresarial para a CIO e bancos de dados e infraestrutura de nuvem para a InfoWorld.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.