Pausar o desenvolvimento da IA generativa é uma ideia tola

A recente chamada de líderes de tecnologia para uma desaceleração no desenvolvimento de ferramentas de IA generativa não funcionará agora

Author Photo
10:00 am - 10 de abril de 2023
ia generativa Imagem: Shutterstock

Um grupo de pessoas influentes da tecnologia apresentou recentemente uma solicitação formal para que os lançamentos de IA generativa sejam interrompidos por seis meses. Certamente entendo as preocupações de que a inteligência artificial esteja avançando muito rápido, mas tentar detê-la é um erro recorrente cometido por pessoas que deveriam saber mais.

Depois que uma tecnologia decola, é impossível contê-la, em grande parte porque não há uma autoridade central forte com poder suficiente para instituir uma pausa global – e nenhuma entidade de fiscalização para garantir que a diretiva de pausa seja seguida.

A abordagem certa seria criar essa autoridade de antemão, para que haja alguma maneira de garantir o resultado pretendido. Costumo concordar com o ex-CEO da Microsoft, Bill Gates, que o foco deve ser garantir a confiabilidade da IA, não tentar pausar tudo.

Por que uma pausa não funciona

Vou argumentar que uma pausa é uma má ideia ao invés de me concentrar no motivo pelo qual não funcionará. Tomemos o exemplo de uma bandeira amarela durante uma corrida de carros. É mais ou menos assim que uma pausa deve funcionar: todos mantêm suas posições até que o perigo passe – ou no caso da IA, até entendermos melhor como mitigar seus perigos potenciais.

Mas, assim como em uma corrida de automóveis, há países e empresas que estão à frente e outros muito atrás. Sob uma bandeira amarela em uma corrida de carros, os carros que estão atrás podem alcançar os carros da frente, mas não podem ultrapassá-los. As regras são impostas por árbitros de pista que não têm análogos no mundo real de empresas e países. Mesmo organizações como a ONU têm pouca ou nenhuma visibilidade nos laboratórios de desenvolvimento de IA, nem podem garantir que esses laboratórios sejam desativados.

Leia mais: AWS selecionará startups para programa com foco em IA generativa

Como resultado, é improvável que aqueles que lideram o caminho da tecnologia de IA reduzam seus esforços, porque sabem que os que seguem não o farão – e aqueles que estão tentando recuperar o atraso usariam qualquer pausa para, bem, recuperar o atraso. (E lembre-se, é improvável que as pessoas que trabalham nesses projetos tirem férias remuneradas de seis meses; elas continuariam a trabalhar em tecnologias relacionadas, independentemente.)

Simplesmente não existe um mecanismo global para impor uma pausa em qualquer avanço tecnológico que já tenha chegado ao mercado. Mesmo o desenvolvimento de clones, que é amplamente proibido, continua em todo o mundo. O que parou foi quase toda a transparência sobre o que e onde está sendo feito (e os esforços de clonagem nunca atingiram o nível de uso que a IA generativa alcançou em poucos meses).

O pedido foi prematuro; regulamentação é mais importante

Felizmente, a IA generativa ainda não é uma IA de uso geral. Esta é a IA que deveria trazer consigo a maior preocupação, pois teria a capacidade de fazer quase tudo que uma máquina ou pessoa pode fazer. E mesmo assim, uma pausa de seis meses faria pouco além de, talvez, embaralhar as classificações competitivas, com aqueles que aderiram a qualquer pausa ficando para trás daqueles que não o fizeram.

Acredita-se que a IA geral esteja mais de uma década no futuro, dando-nos tempo para conceber uma solução que provavelmente está mais próxima de um órgão regulador e de supervisão do que de uma pausa. Na verdade, o que deveria ter sido proposto naquela carta aberta era a criação de tal órgão. Independentemente de qualquer pausa, a necessidade é garantir que a IA não seja prejudicial, tornando a supervisão e a fiscalização primordiais.

Leia também: Como estar pronto para o futuro em um mundo de IA generativa

Dado que a IA está sendo usada em armas, quais países permitiriam a supervisão adequada de terceiros? A resposta provavelmente é nenhuma – pelo menos até que a ameaça relacionada rivalize com a das armas nucleares. Infelizmente, também não fizemos um bom trabalho ao regulá-las.

Como não há como obter consenso global (muito menos impor uma pausa de seis meses na IA), o que é necessário agora é supervisão e aplicação global, juntamente com o apoio a iniciativas como o AI Shield, da Lifeboat Foundation, ou algum outro esforço para criar uma defesa de IA contra ameaças hostis da tecnologia.

Uma ironia associada à carta recente é que os signatários incluem Elon Musk, que tem a reputação de ser antiético (e tende a se rebelar contra a direção do governo), sugerindo que tal mecanismo nem funcionaria com ele. Isso não quer dizer que um esforço não teria mérito. Mas o caminho correto, como Gates estabelece em seu posto, é configurar grades de proteção antes do tempo, não depois que o cavalo de IA deixar o celeiro.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.