Califórnia propõe lei para controlar riscos de IA e esbarra em resistência de especialistas
Novo projeto de lei exige protocolos de segurança rigorosos e impõe multas pesadas para desenvolvedores de grandes modelos de IA
O projeto de lei SB 1047, que busca regulamentar o desenvolvimento de grandes modelos de inteligência artificial (IA) na Califórnia, tem gerado grande controvérsia entre startups, especialistas em IA e grandes empresas de tecnologia.
O objetivo do projeto, proposto pelo senador estadual Scott Wiener, é evitar desastres causados por sistemas de IA ao exigir protocolos de segurança rigorosos para modelos que custam mais de US$ 100 milhões para serem desenvolvidos. No entanto, muitos no Vale do Silício afirmam que a medida pode sufocar a inovação.
O SB 1047 é um projeto de lei da Califórnia que visa prevenir o uso de grandes modelos de IA para causar danos críticos à humanidade, como ataques cibernéticos ou a criação de armas.
A lei responsabiliza empresas desenvolvedoras por implementar protocolos de segurança adequados e se aplica a modelos que custam pelo menos US$ 100 milhões e utilizam uma enorme capacidade de computação. A fiscalização será feita por uma nova agência, a Divisão de Modelos de Fronteira (FMD), que certificará os modelos e supervisionará as práticas de segurança das empresas.
Veja também: IT Forum Líderes: Como a IA generativa vai redefinir carreiras
O senador Scott Wiener, autor do SB 1047, disse ao TechCrunch que defende o projeto como uma forma de evitar repetir erros passados na regulação de tecnologia e proteger os cidadãos antes que danos ocorram. Ele critica a abordagem reativa da política tecnológica e busca antecipar problemas. “Temos um histórico com a tecnologia de esperar que os danos aconteçam e depois nos desesperamos”, disse Wiener. “Não vamos esperar que algo ruim aconteça. Vamos nos antecipar”.
O projeto afetará modelos de IA, independentemente de onde sejam treinados, se forem usados na Califórnia.
O SB 1047 recebe apoio de figuras proeminentes como Geoffrey Hinton e Yoshua Bengio, pesquisadores de IA que temem riscos futuros da tecnologia à sociedade. Dan Hendrycks, diretor do Center for AI Safety, disse ao TechCrunch que apoia a lei e vendeu suas ações em uma startup para evitar conflitos de interesse, incentivando os críticos a fazerem o mesmo para demonstrar suas intenções genuínas.
Por outro lado, a firma de capital de risco a16z, cofundada por Marc Andreessen e Ben Horowitz, expressa forte oposição ao projeto, alegando que ele imporia barreiras arbitrárias e crescentes para startups à medida que a tecnologia de IA avança e encarece. A empresa destacou que algumas de suas startups já ultrapassam o limite de gastos proposto no projeto.
Especialistas em IA também têm se manifestado contra o SB 1047. Fei-Fei Li, Professora da Universidade de Stanford e pioneira na área, afirmou no início do mês que a lei prejudicaria o ecossistema emergente de IA na Califórnia. Li fundou recentemente a World Labs, uma startup de IA. Lançada em abril, a empresa já alcançou o status de bilhão de dólares e conta com o apoio da a16z.
Andrew Ng, pesquisador de renome em IA, disse em um evento, em julho, que o projeto é um “ataque ao código aberto”, que, por ser facilmente modificado, pode ser mais vulnerável a usos maliciosos.
Startups como a Omniscience também temem que o projeto de lei afete negativamente o ecossistema de IA, com seu CEO, Jeremy Nixon, defendendo que apenas maus atores sejam responsabilizados, não os laboratórios que desenvolvem IA abertamente.
Além disso, gigantes da tecnologia, como Google e Meta, criticaram o projeto. A Câmara de Progresso, um grupo de lobby que representa empresas como Google, Apple e Amazon, afirmou que o SB 1047 restringiria a liberdade de expressão e empurraria a inovação tecnológica para fora do estado. Yann LeCun, cientista-chefe de IA da Meta, argumentou que a proposta se baseia em uma “ilusão de risco existencial” promovida por alguns think tanks.
O SB 1047 será enviado ao plenário do Senado da Califórnia em 15 de agosto, onde será decidido se avança ou não, com grande expectativa de aprovação. A Anthropic, uma desenvolvedora de IA, propôs emendas, como a remoção da FMD e a redução do poder do procurador-geral, o que foi visto como um avanço para o projeto.
Se aprovado, o governador Gavin Newsom terá a palavra final até o final de agosto. Mesmo que aprovado, o projeto enfrentará desafios legais e a FMD só será formada em 2026.
*Com informações do TechCrunch
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias