Uma carta assinada por profissionais que já atuaram ou atuam com inteligência artificial (IA), incluindo da OpenAI, Anthropic e DeepMind do Google, alerta para os perigos da IA para a humanidade. Em uma nova carta pública, divulgada nesta terça-feira (4), os profissionais pedem que as corporações sejam mais transparentes e responsáveis.
“Somos atuais e ex-funcionários de empresas pioneiras de IA e acreditamos no potencial da tecnologia de IA para proporcionar benefícios sem precedentes à humanidade”, diz a carta. “Também compreendemos os graves riscos que estas tecnologias representam. Esses riscos vão desde o aprofundamento das desigualdades existentes, à manipulação e desinformação, até à perda de controle de sistemas autônomos de IA, resultando potencialmente na extinção humana. As próprias empresas de IA reconheceram esses riscos, assim como governos em todo o mundo e outros especialistas em IA”.
Leia também: Risco de ciberataques pioram saúde mental de 66% dos profissionais de TI
A carta surge em um momento em que a mãe do ChatGPT, a OpenAI, enfrenta um êxodo de especialistas em segurança, como Daniel Kokotajlo, ex-membro da equipe de governança, Ilya Sutskever, ex-cientista-chefe, Jan Leike, ex-pesquisador de segurança, e Gretchen Krueger, ex-pesquisadora de políticas de IA, que criticam, entre outras coisas, a falta de priorização da segurança pela empresa, especialmente no contexto do desenvolvimento e lançamento de produtos de IA. Ex-membros do Conselho como Helen Toner e Tasha McCauley também questionam a capacidade da OpenAI de se autorregular.
“Perdi a esperança de que eles agiriam de forma responsável, principalmente porque buscam inteligência artificial geral”, disse Kokotajlo.
Em uma entrevista recente a um podcast, Toner disse que Sam Altman, CEO da OpenAI, deu “informações imprecisas sobre o pequeno número de processos formais de segurança que a empresa tinha em vigor”. Segundo a ex-membro do conselho da empresa, isso “significa que era basicamente impossível para o conselho saber o quão bem esses processos de segurança estavam funcionando”, disse ela ao TED AI Show em maio.
Na carta, os 13 profissionais que a assinam “apelam” às empresas que se comprometam com alguns princípios, incluindo a criação de um canal anônimo de denúncias; a promoção de uma cultura de crítica aberta; a proteção contra retaliação; e a priorização da segurança. O objetivo é garantir que os produtos e tecnologias de IA sejam desenvolvidos e utilizados de forma responsável, com foco na segurança e na proteção dos usuários.
A carta ainda é endossada por figuras proeminentes da IA, como Yoshua Bengio, Geoffrey Hinton e Stuart Russell.
*Com informações do The Washington Post
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
A cibersegurança está entre os principais desafios para a gestão dos negócios das empresas brasileiras.…
Durante o Febraban Tech 2024, o IT Forum conversou com Rodrigo Vilella, vice-presidente de serviços…
Uma pesquisa recente do Gartner com mais de 1.800 líderes revelou que pouco mais da…
Nos últimos anos, diversas startups de inteligência artificial (IA) da China têm se mudado para…
A Binance, plataforma global de negociação de criptomoedas, divulgou recentemente que seu serviço de pagamento…
Apenas 20% dos principais executivos de finanças (CFOs) das corporações globais estão satisfeitos com o…