Um grupo de pessoas influentes da tecnologia apresentou recentemente uma solicitação formal para que os lançamentos de IA generativa sejam interrompidos por seis meses. Certamente entendo as preocupações de que a inteligência artificial esteja avançando muito rápido, mas tentar detê-la é um erro recorrente cometido por pessoas que deveriam saber mais.
Depois que uma tecnologia decola, é impossível contê-la, em grande parte porque não há uma autoridade central forte com poder suficiente para instituir uma pausa global – e nenhuma entidade de fiscalização para garantir que a diretiva de pausa seja seguida.
A abordagem certa seria criar essa autoridade de antemão, para que haja alguma maneira de garantir o resultado pretendido. Costumo concordar com o ex-CEO da Microsoft, Bill Gates, que o foco deve ser garantir a confiabilidade da IA, não tentar pausar tudo.
Vou argumentar que uma pausa é uma má ideia ao invés de me concentrar no motivo pelo qual não funcionará. Tomemos o exemplo de uma bandeira amarela durante uma corrida de carros. É mais ou menos assim que uma pausa deve funcionar: todos mantêm suas posições até que o perigo passe – ou no caso da IA, até entendermos melhor como mitigar seus perigos potenciais.
Mas, assim como em uma corrida de automóveis, há países e empresas que estão à frente e outros muito atrás. Sob uma bandeira amarela em uma corrida de carros, os carros que estão atrás podem alcançar os carros da frente, mas não podem ultrapassá-los. As regras são impostas por árbitros de pista que não têm análogos no mundo real de empresas e países. Mesmo organizações como a ONU têm pouca ou nenhuma visibilidade nos laboratórios de desenvolvimento de IA, nem podem garantir que esses laboratórios sejam desativados.
Leia mais: AWS selecionará startups para programa com foco em IA generativa
Como resultado, é improvável que aqueles que lideram o caminho da tecnologia de IA reduzam seus esforços, porque sabem que os que seguem não o farão – e aqueles que estão tentando recuperar o atraso usariam qualquer pausa para, bem, recuperar o atraso. (E lembre-se, é improvável que as pessoas que trabalham nesses projetos tirem férias remuneradas de seis meses; elas continuariam a trabalhar em tecnologias relacionadas, independentemente.)
Simplesmente não existe um mecanismo global para impor uma pausa em qualquer avanço tecnológico que já tenha chegado ao mercado. Mesmo o desenvolvimento de clones, que é amplamente proibido, continua em todo o mundo. O que parou foi quase toda a transparência sobre o que e onde está sendo feito (e os esforços de clonagem nunca atingiram o nível de uso que a IA generativa alcançou em poucos meses).
Felizmente, a IA generativa ainda não é uma IA de uso geral. Esta é a IA que deveria trazer consigo a maior preocupação, pois teria a capacidade de fazer quase tudo que uma máquina ou pessoa pode fazer. E mesmo assim, uma pausa de seis meses faria pouco além de, talvez, embaralhar as classificações competitivas, com aqueles que aderiram a qualquer pausa ficando para trás daqueles que não o fizeram.
Acredita-se que a IA geral esteja mais de uma década no futuro, dando-nos tempo para conceber uma solução que provavelmente está mais próxima de um órgão regulador e de supervisão do que de uma pausa. Na verdade, o que deveria ter sido proposto naquela carta aberta era a criação de tal órgão. Independentemente de qualquer pausa, a necessidade é garantir que a IA não seja prejudicial, tornando a supervisão e a fiscalização primordiais.
Leia também: Como estar pronto para o futuro em um mundo de IA generativa
Dado que a IA está sendo usada em armas, quais países permitiriam a supervisão adequada de terceiros? A resposta provavelmente é nenhuma – pelo menos até que a ameaça relacionada rivalize com a das armas nucleares. Infelizmente, também não fizemos um bom trabalho ao regulá-las.
Como não há como obter consenso global (muito menos impor uma pausa de seis meses na IA), o que é necessário agora é supervisão e aplicação global, juntamente com o apoio a iniciativas como o AI Shield, da Lifeboat Foundation, ou algum outro esforço para criar uma defesa de IA contra ameaças hostis da tecnologia.
Uma ironia associada à carta recente é que os signatários incluem Elon Musk, que tem a reputação de ser antiético (e tende a se rebelar contra a direção do governo), sugerindo que tal mecanismo nem funcionaria com ele. Isso não quer dizer que um esforço não teria mérito. Mas o caminho correto, como Gates estabelece em seu posto, é configurar grades de proteção antes do tempo, não depois que o cavalo de IA deixar o celeiro.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
Em uma iniciativa inovadora para a ação climática, as gigantes da tecnologia Google, Meta, Microsoft…
A plataforma Rendix, que permite pagamentos via Pix em transações internacionais, está ganhando terreno na…
A DeepL, empresa alemã especialista em linguagem natural para IA, anunciou essa semana um investimento…
A segurança dos veículos Tesla, que adotaram recentemente a tecnologia de rádio de banda ultralarga,…
Os provedores de serviços de comunicações (CSPs) estão otimistas com relação à inteligência artificial. Mais…
A recente controvérsia envolvendo Scarlett Johansson e a OpenAI levantou uma questão importante sobre o…