Sam Altman deixa comitê de segurança da OpenAI, mas dúvidas sobre responsabilidade permanecem
Sam Altman, CEO da OpenAI, renunciou ao comitê responsável por decisões de segurança da empresa; saída é marcada por críticas internas e externas
Sam Altman, CEO da OpenAI, decidiu se afastar do comitê de segurança da empresa, criado para supervisionar as operações e garantir que os avanços em inteligência artificial ocorram de forma segura. A saída, anunciada nesta segunda-feira (16), veio em resposta a pressões internas e externas, que questionavam a independência do comitê. No entanto, de acordo com o TechCrunch, o comitê, criado em maio, continuará formado por membros do conselho da OpenAI, mesmo após a renúncia de Altman.
“O Comitê de Segurança e Proteção se tornará um comitê de supervisão independente do Conselho focado em segurança e proteção (…)”, disse a empresa em uma postagem no blog.
Leia também: Desbloqueio do X no Brasil é resultado de atualização no app, diz associação de provedores
Apesar da empresa afirmar independência, especialistas apontam que o comitê segue composto por pessoas diretamente ligadas à liderança da OpenAI. Entre seus integrantes estão Zico Kolter, professor da Carnegie Mellon, Adam D’Angelo, CEO do Quora, e Nicole Seligman, ex-executiva da Sony.
O que motivou a decisão de Sam Altman?
A decisão de Altman ocorre em meio a fortes críticas de ex-funcionários da empresa, que expressaram preocupação com a abordagem da OpenAI em relação à segurança. Um ex-integrante da equipe de segurança “Superalignment”, Daniel Kokotajlo, afirmou em entrevista à Fortune que, desde a volta de Altman ao comando, a segurança tem sido colocada de lado, resultando na saída de diversos membros da equipe focada nessa área.
“Pessoas que estão focadas principalmente em pensar sobre segurança e preparação para a IAG estão sendo cada vez mais marginalizadas”, afirmou Kokotajlo.
Além disso, um grupo de ex-funcionários divulgou uma carta pública criticando a falta de compromisso da OpenAI com a segurança. Segundo a Fortune, eles relataram ter perdido a confiança na empresa para desenvolver sistemas de IA de maneira responsável e segura, o que os levou a se desligarem. O documento destaca, ainda, preocupações sobre o futuro das práticas de segurança da companhia.
A pressão sobre a OpenAI também veio do governo norte-americano. Em julho de 2024, o senador Angus King, junto a outros parlamentares, enviou uma carta à empresa, solicitando que ela cumprisse suas promessas públicas sobre segurança. O TechCrunch relatou que, em resposta, a OpenAI aumentou drasticamente seus gastos com lobby, totalizando US$ 800 mil nos primeiros seis meses do ano, em comparação com US$ 260 mil durante todo o ano anterior.
Continuidade
Apesar das críticas, a OpenAI reafirmou, no blog da empresa, que o comitê reestruturado continuará recebendo relatórios regulares e monitorando os avanços tecnológicos. A empresa busca fortalecer seu framework de segurança e está preparada para lidar com a crescente pressão por regulamentações mais rígidas no setor de IA.
“Como parte do seu trabalho, o Safety and Security Committee e o Conselho revisaram a avaliação de segurança do lançamento o1 [conhecido como Strawberry] e continuarão a receber relatórios regulares sobre avaliações técnicas para modelos atuais e futuros, bem como relatórios de monitoramento contínuo pós-lançamento. O Safety and Security Committee também se beneficiará do envolvimento regular com representantes das equipes de segurança e proteção da OpenAI. Briefings periódicos sobre questões de segurança e proteção também serão fornecidos ao Conselho completo”, disse a empresa.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!