Devemos temer o surgimento de uma inteligência artificial geral?

A IA está a caminho de mais do que dobrar a capacidade computacional a cada ano – e isso pode levar a uma inteligência que se autoperpetua

Author Photo
10:00 am - 04 de abril de 2023
IA, inteligência artificial, robô Imagem: Shutterstock

Na semana passada, um grupo de tecnólogos pediu que os laboratórios de inteligência artificial (IA) parassem de treinar seus sistemas mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”.

Em uma carta aberta que agora tem mais de 2.100 signatários, incluindo o cofundador da Apple, Steve Wozniak, os líderes de tecnologia chamaram a atenção do recém-anunciado algoritmo GPT-4, da OpenAI, com sede em São Francisco, dizendo que a empresa deveria interromper o desenvolvimento até que os padrões de supervisão estejam no lugar. Essa meta tem o apoio de tecnólogos, CEOs, CFOs, estudantes de doutorado, psicólogos, médicos, desenvolvedores e engenheiros de software, professores de universidades e de escolas públicas de todo o mundo.

Na sexta-feira (31), a Itália se tornou a primeira nação ocidental a proibir o desenvolvimento do ChatGPT por questões de privacidade; o aplicativo de processamento de linguagem natural sofreu uma violação de dados no mês passado envolvendo conversas do usuário e informações de pagamento. ChatGPT é o popular chatbot baseado em GPT criado pela OpenAI e apoiado por bilhões de dólares da Microsoft.

A autoridade italiana de proteção de dados disse que também está investigando se o chatbot da OpenAI já violou as regras do Regulamento Geral de Proteção de Dados da União Europeia, criadas para proteger dados pessoais dentro e fora da UE. A OpenAI cumpriu a nova lei, de acordo com uma reportagem da BBC.

A expectativa entre muitos na comunidade de tecnologia é que o GPT, que significa transformador pré-treinado generativo, traduzido para o português, avance para se tornar o GPT-5 – e essa versão será uma inteligência artificial geral, ou AGI. A AGI representa IA que pode pensar por si mesma e, nesse ponto, o algoritmo continuaria a crescer exponencialmente mais inteligente ao longo do tempo.

Por volta de 2016, surgiu uma tendência nos modelos de treinamento de IA que eram duas a três ordens de grandeza maiores que os sistemas anteriores, de acordo com o Epoch, um grupo de pesquisa que tenta prever o desenvolvimento da IA transformadora. Essa tendência continuou.

Leia também: Como estar pronto para o futuro em um mundo de IA generativa

Atualmente, não existem sistemas de IA maiores que o GPT-4 em termos de computação de treinamento, de acordo com Jaime Sevilla, Diretor da Epoch. Mas isso vai mudar.

Anthony Aguirre, Professor de Física na University of California, Santa Cruz, e vice-presidente Executivo da Future of Life, organização sem fins lucrativos que publicou a carta aberta aos desenvolvedores, disse que não há razão para acreditar que o GPT-4 não continuará a mais do que dobrar em recursos computacionais a cada ano.

“Os cálculos de maior escala estão aumentando de tamanho cerca de 2,5 vezes por ano. Os parâmetros do GPT-4 não foram divulgados pela OpenAI, mas não há razão para pensar que essa tendência parou ou mesmo desacelerou”, disse Acquirre. “Apenas os próprios laboratórios sabem quais cálculos estão executando, mas a tendência é evidente”.

Em seu blog quinzenal, em 23 de março, o Cofundador da Microsoft, Bill Gates, anunciou a AGI – que é capaz de aprender qualquer tarefa ou assunto – como “o grande sonho da indústria de computação”.

“A AGI ainda não existe – há um debate intenso na indústria de computação sobre como criá-la e se ela pode ser criada”, escreveu Gates. “Agora, com a chegada do machine learning e grandes quantidades de poder de computação, IAs sofisticadas são uma realidade e melhorarão muito rapidamente”.

Muddu Sudhakar, CEO da Aisera, uma empresa de IA generativa para empresas, disse que há apenas um punhado de empresas focadas em alcançar AGI como OpenAI e DeepMind (apoiadas pelo Google), embora tenham “enormes quantidades de recursos financeiros e técnicos”.

Mesmo assim, eles têm um longo caminho a percorrer para chegar à AGI, disse ele.

Leia mais: Petrobras inicia operação de supercomputador para IA – o Tatu

“Existem tantas tarefas que os sistemas de IA não podem fazer que os humanos podem fazer naturalmente, como raciocínio de bom senso, saber o que é um fato e entender conceitos abstratos (como justiça, política e filosofia)”, disse Sudhakar em um e-mail ao Computerworld. “Haverá muitos avanços e inovações para AGI. Mas se isso for alcançado, parece que este sistema substituirá principalmente os seres humanos.

“Isso certamente seria perturbador e precisaria haver muitas barreiras para impedir que a AGI assumisse o controle total”, disse Sudhakar. “Mas, por enquanto, isso é provável em um futuro distante. Está mais no reino da ficção científica”.

Nem todo mundo concorda.

A tecnologia de IA e os assistentes de chatbot fizeram e continuarão a fazer incursões em quase todos os setores. A tecnologia pode criar eficiências e assumir tarefas mundanas, liberando os trabalhadores do conhecimento e outros para se concentrarem em trabalhos mais importantes.

Por exemplo, modelos de linguagem grande (LLMs) – os algoritmos que alimentam os chatbots – podem filtrar milhões de alertas, chats on-line e e-mails, além de encontrar páginas da Web de phishing e executáveis potencialmente maliciosos. Os chatbots com tecnologia LLM podem escrever ensaios, campanhas de marketing e sugerir códigos de computador, tudo a partir de simples prompts de usuário (sugestões).

Chatbots alimentados por LLMs são processadores de linguagem natural que basicamente prevêem as próximas palavras após serem solicitados por uma pergunta do usuário. Então, se um usuário pedisse a um chatbot para criar um poema sobre uma pessoa sentada em uma praia em Nantucket, a IA simplesmente encadearia palavras, frases e parágrafos que são as melhores respostas com base no treinamento anterior dos programadores.

Mas os LLMs também cometeram erros de alto nível e podem produzir “alucinações”, em que os motores da próxima geração saem dos trilhos e produzem respostas bizarras.

Se a IA baseada em LLMs com bilhões de parâmetros ajustáveis pode sair dos trilhos, quão maior seria o risco quando a IA não precisasse mais de humanos para ensiná-la e pudesse pensar por si mesma? A resposta é muito maior, de acordo com Avivah Litan, vice-presidente e Distinta Analista do Gartner Research.

Litan acredita que os laboratórios de desenvolvimento de IA estão avançando a uma velocidade vertiginosa sem qualquer supervisão, o que pode resultar em AGI se tornando incontrolável.

Os laboratórios de IA, ela argumentou, “correram à frente sem colocar as ferramentas adequadas para os usuários monitorarem o que está acontecendo. Acho que está indo muito mais rápido do que qualquer um esperava”, disse ela.

A preocupação atual é que a tecnologia de IA para uso por corporações está sendo lançada sem as ferramentas que os usuários precisam para determinar se a tecnologia está gerando informações precisas ou imprecisas.

“No momento, estamos falando de todos os mocinhos que têm toda essa capacidade inovadora, mas os bandidos também têm”, disse Litan. “Então, temos que ter esses sistemas de marcação de água e saber o que é real e o que é sintético. E não podemos confiar na detecção, temos que ter autenticação de conteúdo. Caso contrário, a desinformação vai se espalhar como fogo”.

Por exemplo, a Microsoft lançou esta semana o Security Copilot, que é baseado no modelo de linguagem grande GPT-4 da OpenAI. A ferramenta é um chatbot de IA para especialistas em segurança cibernética para ajudá-los a detectar e responder rapidamente a ameaças e entender melhor o cenário geral de ameaças.

O problema é que “você, como usuário, precisa entrar e identificar quaisquer erros cometidos”, disse Litan. “Isso é inaceitável. Eles devem ter algum tipo de sistema de pontuação que diga que essa saída provavelmente é 95% verdadeira e, portanto, tem 5% de chance de erro. E este tem 10% de chance de erro. Eles não estão dando nenhuma visão sobre o desempenho para ver se é algo em que você pode confiar ou não”.

Veja também: TI corporativa avança – com cautela – com IA generativa

Uma preocupação maior em um futuro não tão distante é que o criador do GPT-4, a OpenAI, lançará uma versão compatível com a AGI. Nesse ponto, pode ser tarde demais para controlar a tecnologia.

Uma solução possível, sugeriu Litan, é lançar dois modelos para cada ferramenta generativa de IA – um para gerar respostas, o outro para verificar a precisão do primeiro.

“Isso pode fazer um bom trabalho ao garantir que um modelo está lançando algo em que você pode confiar”, disse ela. “Você não pode esperar que um ser humano passe por todo esse conteúdo e decida o que é verdade ou não, mas se você der a eles outros modelos que estão verificando (…), isso permitiria aos usuários monitorar o desempenho”.

Em 2022, a Time relatou que a OpenAI havia terceirizado serviços para trabalhadores de baixa renda no Quênia para determinar se seu GPT LLM estava produzindo informações seguras. Os trabalhadores contratados pela Sama, uma empresa sediada em São Francisco, receberam US$ 2 por hora e foram obrigados a filtrar as respostas do aplicativo GPT “que tendiam a deixar escapar comentários violentos, sexistas e até racistas”.

“E é assim que você está nos protegendo? Pagando às pessoas US$ 2 por hora e que estão ficando doentes. É totalmente ineficiente e totalmente imoral”, disse Litan.

“Os desenvolvedores de IA precisam trabalhar com os formuladores de políticas, e estes devem incluir, no mínimo, autoridades reguladoras novas e capazes”, continuou Litan. “Não sei se algum dia chegaremos lá, mas os reguladores não conseguem acompanhar isso, e isso foi previsto anos atrás. Precisamos criar um novo tipo de autoridade”.

Shubham Mishra, Cofundador e CEO Global da Pixis, startup de IA, acredita que, embora o progresso em seu campo “não possa e não deva parar”, o pedido de uma pausa no desenvolvimento da IA é justificado. A IA generativa, disse ele, tem o poder de confundir as massas ao divulgar propaganda ou informações “difíceis de distinguir” no domínio público.

“O que podemos fazer é planejar esse progresso. Isso só será possível se todos nós concordarmos mutuamente em interromper essa corrida e concentrar a mesma energia e esforços na construção de diretrizes e protocolos para o desenvolvimento seguro de modelos maiores de IA”, disse Mishra em um e-mail ao Computerworld.

“Nesse caso particular, o apelo não é para uma proibição geral do desenvolvimento de IA, mas uma pausa temporária na construção de modelos maiores e imprevisíveis que competem com a inteligência humana”, continuou ele. “As taxas alucinantes nas quais novas e poderosas inovações e modelos de IA estão sendo desenvolvidos definitivamente exigem que os líderes tecnológicos e outros se unam para criar medidas e protocolos de segurança”.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.