Sam Altman deixa comitê de segurança da OpenAI, mas dúvidas sobre responsabilidade permanecem

Sam Altman, CEO da OpenAI, renunciou ao comitê responsável por decisões de segurança da empresa; saída é marcada por críticas internas e externas

Author Photo
8:54 am - 19 de setembro de 2024
Sam Altman, CEO da OpenAI. Imagem: Shutterstock

Sam Altman, CEO da OpenAI, decidiu se afastar do comitê de segurança da empresa, criado para supervisionar as operações e garantir que os avanços em inteligência artificial ocorram de forma segura. A saída, anunciada nesta segunda-feira (16), veio em resposta a pressões internas e externas, que questionavam a independência do comitê. No entanto, de acordo com o TechCrunch, o comitê, criado em maio, continuará formado por membros do conselho da OpenAI, mesmo após a renúncia de Altman.

“O Comitê de Segurança e Proteção se tornará um comitê de supervisão independente do Conselho focado em segurança e proteção (…)”, disse a empresa em uma postagem no blog.

Leia também: Desbloqueio do X no Brasil é resultado de atualização no app, diz associação de provedores 

Apesar da empresa afirmar independência, especialistas apontam que o comitê segue composto por pessoas diretamente ligadas à liderança da OpenAI. Entre seus integrantes estão Zico Kolter, professor da Carnegie Mellon, Adam D’Angelo, CEO do Quora, e Nicole Seligman, ex-executiva da Sony.

O que motivou a decisão de Sam Altman?

A decisão de Altman ocorre em meio a fortes críticas de ex-funcionários da empresa, que expressaram preocupação com a abordagem da OpenAI em relação à segurança. Um ex-integrante da equipe de segurança “Superalignment”, Daniel Kokotajlo, afirmou em entrevista à Fortune que, desde a volta de Altman ao comando, a segurança tem sido colocada de lado, resultando na saída de diversos membros da equipe focada nessa área.

“Pessoas que estão focadas principalmente em pensar sobre segurança e preparação para a IAG estão sendo cada vez mais marginalizadas”, afirmou Kokotajlo.

Além disso, um grupo de ex-funcionários divulgou uma carta pública criticando a falta de compromisso da OpenAI com a segurança. Segundo a Fortune, eles relataram ter perdido a confiança na empresa para desenvolver sistemas de IA de maneira responsável e segura, o que os levou a se desligarem. O documento destaca, ainda, preocupações sobre o futuro das práticas de segurança da companhia.

A pressão sobre a OpenAI também veio do governo norte-americano. Em julho de 2024, o senador Angus King, junto a outros parlamentares, enviou uma carta à empresa, solicitando que ela cumprisse suas promessas públicas sobre segurança. O TechCrunch relatou que, em resposta, a OpenAI aumentou drasticamente seus gastos com lobby, totalizando US$ 800 mil nos primeiros seis meses do ano, em comparação com US$ 260 mil durante todo o ano anterior.

Continuidade

Apesar das críticas, a OpenAI reafirmou, no blog da empresa, que o comitê reestruturado continuará recebendo relatórios regulares e monitorando os avanços tecnológicos. A empresa busca fortalecer seu framework de segurança e está preparada para lidar com a crescente pressão por regulamentações mais rígidas no setor de IA.

“Como parte do seu trabalho, o Safety and Security Committee e o Conselho revisaram a avaliação de segurança do lançamento o1 [conhecido como Strawberry] e continuarão a receber relatórios regulares sobre avaliações técnicas para modelos atuais e futuros, bem como relatórios de monitoramento contínuo pós-lançamento. O Safety and Security Committee também se beneficiará do envolvimento regular com representantes das equipes de segurança e proteção da OpenAI. Briefings periódicos sobre questões de segurança e proteção também serão fornecidos ao Conselho completo”, disse a empresa.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.