Defensores da segurança da IA aconselham fundadores a desacelerar

Especialistas alertam que a pressa no desenvolvimento da IA pode gerar sérios problemas éticos e sociais a longo prazo

Author Photo
2:30 pm - 06 de novembro de 2024
Imagem: Shutterstock

“Agir com cautela e promover uma análise crítica” pode não ter o mesmo impacto que “mova-se rápido e quebre as coisas”, mas três defensores da segurança da inteligência artificial (IA) deixaram claro aos fundadores de startups que a pressa pode acarretar problemas éticos no longo prazo.

“Estamos em um ponto de inflexão, em que muitos recursos estão sendo alocados para este espaço”, disse Sarah Myers West, codiretora do AI Now Institute, durante sua apresentação no TechCrunch Disrupt 2024.

“Estou realmente preocupada que, neste momento, exista uma pressa imensa para lançar produtos no mundo, sem considerar a questão legado: que tipo de mundo realmente queremos viver e de que forma a tecnologia que está sendo criada serve a esse mundo ou o prejudica ativamente.”

Leia também: ANPD investiga TikTok por possível violação de dados de crianças e adolescentes 

A conversa surge em um momento em que a questão da segurança da IA é mais urgente do que nunca. Em outubro, a família de uma criança processou a empresa de chatbot Character.AI, alegando que o serviço teve influência na sua morte. “Essa história demonstra as profundas implicações do rápido lançamento das tecnologias baseadas em IA”, afirmou Sarah. “Alguns desses problemas são de longa data e quase inextricáveis, como a moderação de conteúdo e o abuso on-line.”

No entanto, além dessas questões que envolvem a vida ou a morte, os riscos da IA se estendem a outras áreas, como desinformação e violação de direitos autorais.

“Estamos construindo algo que possui um poder imenso e que pode impactar profundamente a vida das pessoas”, comentou Jingna Zhang, fundadora da plataforma social voltada para artistas, Cara. “Quando falamos sobre algo como o Character.AI, que se envolve emocionalmente com alguém, faz sentido que devêssemos ter limites em como o produto é desenvolvido.”

A plataforma de Jingna ganhou destaque após a Meta declarar que poderia usar publicações públicas de qualquer usuário para treinar sua IA. Para artistas como Jingna, essa política é um golpe duro. Eles precisam publicar seus trabalhos on-line para conquistar seguidores e garantir possíveis clientes, mas, ao fazer isso, suas obras podem ser utilizadas para moldar modelos de IA que um dia poderiam ameaçar seu emprego.

“O direito autoral é o que nos protege e nos permite ganhar a vida”, explicou. Se uma obra de arte está disponível on-line, isso não significa que é livre para uso — publicações digitais, por exemplo, precisam licenciar imagens de fotógrafos para utilizá-las. “Quando a IA generativa começou a se tornar mais comum, percebemos que ela não se encaixa no que estamos acostumados, algo que já está estabelecido na lei. E, se quiserem usar nosso trabalho, deveriam licenciar isso.”

E as deepfakes?

Aleksandra Pedraszewska, líder de segurança da ElevenLabs, empresa de clonagem de voz que já vale mais de US$ 1 bilhão, também destacou a necessidade de vigilância. É sua responsabilidade garantir que a tecnologia sofisticada da empresa não seja usada para deepfakes não consensuais, entre outras questões.

“Acredito que a análise crítica dos modelos, a compreensão de comportamentos indesejáveis e as consequências não intencionais de qualquer novo lançamento que uma empresa de IA generativa faça estão se tornando uma prioridade”, afirmou. “A ElevenLabs possui hoje 33 milhões de usuários. Esta é uma comunidade massiva que é afetada por qualquer mudança que fizermos em nosso produto.”

Aleksandra também sugeriu que uma maneira de profissionais em sua posição serem mais proativos na manutenção da segurança das plataformas é estabelecer um relacionamento mais próximo com a comunidade de usuários.

“Não podemos operar apenas entre dois extremos: um sendo totalmente anti-IA e anti-IA generativa, e o outro tentando convencer a favor da ausência total de regulamentação. Acredito que precisamos encontrar um meio-termo quando se trata de regulamentação”, finalizou.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.