Principais players de IA generativa se unem para criar o Frontier Model Forum
Quatro das maiores empresas de IA generativa buscam grupo setorial com o objetivo de discutir preocupações de segurança e regulamentação
Google, OpenAI, Microsoft e Anthropic serão os membros fundadores do Frontier Model Forum, um grupo setorial para a indústria de IA generativa. O grupo planeja focar em pesquisas de segurança, identificação das melhores práticas, políticas públicas e casos de uso para essa tecnologia em rápida evolução que pode beneficiar a sociedade como um todo.
De acordo com um comunicado emitido pelas quatro empresas na quarta-feira (26), o Fórum oferecerá filiação a organizações que projetam e desenvolvem ferramentas e plataformas de IA generativa em larga escala que ultrapassam os limites do que é possível no campo. O grupo afirma que esses modelos “fronteiriços” exigem que as organizações participantes “demonstrem um forte compromisso com a segurança dos modelos fronteiriços” e estejam “dispostas a contribuir para o avanço dos esforços do Fórum participando de iniciativas conjuntas”.
O comunicado delineia três principais objetivos para o futuro imediato. O primeiro é identificar as melhores práticas para mitigar os potenciais riscos da IA generativa, incluindo a dependência de resultados errôneos, a criação de informações projetadas para realizar fins ilegais ou prejudiciais, entre outros. O segundo é coordenar pesquisas científicas sobre medidas de segurança para a IA, incluindo interpretabilidade mecanística, supervisão escalonável e detecção de anomalias. Por fim, o fórum espera promover a comunicação entre empresas e governos para reforçar a segurança e o desenvolvimento.
“As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura, protegida e permaneça sob controle humano”, disse Brad Smith, Presidente da Microsoft, em comunicado. “Esta iniciativa é um passo vital para unir o setor de tecnologia no avanço responsável da IA e enfrentar os desafios para que ela beneficie toda a humanidade”.
Leia mais: É hora de quebrar seu hábito de usar o ChatGPT
“É vital que as empresas de IA – especialmente aquelas que trabalham com os modelos mais poderosos – se alinhem em um terreno comum e avancem com práticas de segurança cuidadosas e adaptáveis para garantir que as poderosas ferramentas de IA tenham o benefício mais amplo possível”, afirmou Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, em um comunicado. “Este trabalho é urgente e este fórum está bem posicionado para agir rapidamente para avançar no estado da segurança da IA”.
A popularidade avassaladora da IA generativa tem provocado um amplo debate sobre como a tecnologia deve ser governada e regulamentada, com a União Europeia prestes a se tornar o primeiro órgão governamental ocidental a aprovar uma Lei de IA. Essa lei tem sido criticada por líderes empresariais e tecnológicos, que denunciaram uma abordagem “burocrática” para a regulamentação em uma carta aberta.
Isso ajudou a impulsionar a criação do Frontier Model Forum, que representa a tentativa da indústria de se autorregular em vez de simplesmente aguardar decretos governamentais. O ritmo de mudança nas ferramentas de IA generativa tem sido acelerado, dadas as questões legais que ela suscita. Especificamente, a OpenAI tem sido alvo de ações judiciais nos EUA, especialmente em tribunais civis, devido ao possível uso de material protegido por direitos autorais para treinamento de modelos.
Uma dessas ações, cujos autores incluem a comediante e autora Sarah Silverman, alega que empresas de IA utilizam obras protegidas por direitos autorais em seus treinamentos sem dar crédito, compensação ou obter consentimento. Além de processos civis, os problemas legais das empresas de IA generativa nos EUA não se limitam a isso. A Comissão Federal de Comércio dos EUA (FTC) teria iniciado uma investigação sobre a OpenAI em relação ao tratamento de dados de clientes, e solicitou à empresa uma explicação detalhada de suas práticas comerciais.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!