Notícias

OpenAI, Anthropic e DeepMind: carta assinada por profissionais alerta para perigos da IA

Uma carta assinada por profissionais que já atuaram ou atuam com inteligência artificial (IA), incluindo da OpenAI, Anthropic e DeepMind do Google, alerta para os perigos da IA para a humanidade. Em uma nova carta pública, divulgada nesta terça-feira (4), os profissionais pedem que as corporações sejam mais transparentes e responsáveis.

“Somos atuais e ex-funcionários de empresas pioneiras de IA e acreditamos no potencial da tecnologia de IA para proporcionar benefícios sem precedentes à humanidade”, diz a carta. “Também compreendemos os graves riscos que estas tecnologias representam. Esses riscos vão desde o aprofundamento das desigualdades existentes, à manipulação e desinformação, até à perda de controle de sistemas autônomos de IA, resultando potencialmente na extinção humana. As próprias empresas de IA reconheceram esses riscos, assim como governos em todo o mundo e outros especialistas em IA”.

Leia também: Risco de ciberataques pioram saúde mental de 66% dos profissionais de TI

A carta surge em um momento em que a mãe do ChatGPT, a OpenAI, enfrenta um êxodo de especialistas em segurança, como Daniel Kokotajlo, ex-membro da equipe de governança, Ilya Sutskever, ex-cientista-chefe, Jan Leike, ex-pesquisador de segurança, e Gretchen Krueger, ex-pesquisadora de políticas de IA, que criticam, entre outras coisas, a falta de priorização da segurança pela empresa, especialmente no contexto do desenvolvimento e lançamento de produtos de IA. Ex-membros do Conselho como Helen Toner e Tasha McCauley também questionam a capacidade da OpenAI de se autorregular.

“Perdi a esperança de que eles agiriam de forma responsável, principalmente porque buscam inteligência artificial geral”, disse Kokotajlo.

Em uma entrevista recente a um podcast, Toner disse que Sam Altman, CEO da OpenAI, deu “informações imprecisas sobre o pequeno número de processos formais de segurança que a empresa tinha em vigor”. Segundo a ex-membro do conselho da empresa, isso “significa que era basicamente impossível para o conselho saber o quão bem esses processos de segurança estavam funcionando”, disse ela ao TED AI Show em maio.

Na carta, os 13 profissionais que a assinam “apelam” às empresas que se comprometam com alguns princípios, incluindo a criação de um canal anônimo de denúncias; a promoção de uma cultura de crítica aberta; a proteção contra retaliação; e a priorização da segurança. O objetivo é garantir que os produtos e tecnologias de IA sejam desenvolvidos e utilizados de forma responsável, com foco na segurança e na proteção dos usuários.

A carta ainda é endossada por figuras proeminentes da IA, como Yoshua Bengio, Geoffrey Hinton e Stuart Russell.

*Com informações do The Washington Post

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

Deloitte: infraestrutura é prioridade entre investimentos em cibersegurança no Brasil

A cibersegurança está entre os principais desafios para a gestão dos negócios das empresas brasileiras.…

14 horas ago

Visa e Mastercard: de pagamentos a segurança digital

Durante o Febraban Tech 2024, o IT Forum conversou com Rodrigo Vilella, vice-presidente de serviços…

15 horas ago

Gartner: 55% das organizações já têm um conselho de IA

Uma pesquisa recente do Gartner com mais de 1.800 líderes revelou que pouco mais da…

15 horas ago

Startups de IA da China migram para Singapura em busca de expansão global

Nos últimos anos, diversas startups de inteligência artificial (IA) da China têm se mudado para…

16 horas ago

Binance Pay cresce 57% em volume de transações no 1º trimestre de 2024

A Binance, plataforma global de negociação de criptomoedas, divulgou recentemente que seu serviço de pagamento…

17 horas ago

Apenas 20% dos CFOs estão satisfeitos com investimentos feitos em TI

Apenas 20% dos principais executivos de finanças (CFOs) das corporações globais estão satisfeitos com o…

18 horas ago