Ferramentas de IA geram imagens enganosas e desafiam integridade eleitoral, revelam pesquisadores

Estudo aponta que ferramentas de IA podem produzir imagens falsas sobre as eleições, levantando preocupações sobre a disseminação de desinformação

Author Photo
1:40 pm - 07 de março de 2024
IA, eleições

Um recente estudo realizado pelo Centro de Combate ao Ódio Digital (CCDH) revelou que ferramentas de inteligência artificial (IA), desenvolvidas por empresas renomadas como OpenAI e Microsoft, apresentam um potencial alarmante para gerar imagens enganosas relacionadas a processos eleitorais. Entre as ferramentas testadas, o Midjourney destacou-se negativamente, obtendo a pior avaliação dos pesquisadores.

Os pesquisadores do CCDH, uma organização sem fins lucrativos, realizaram um estudo para examinar o desempenho de várias ferramentas de IA. Eles testaram ferramentas como o ChatGPT Plus, da OpenAI, o Image Creator, da Microsoft, o Midjourney e o DreamStudio, da Stability AI, para criar imagens a partir de descrições de texto.

Leia mais: Nova Hampshire investiga chamadas de IA que se passam por Biden

Durante a pesquisa, as ferramentas de IA foram capazes de gerar imagens em 41% dos testes conduzidos pelos pesquisadores. Eles observaram que essas ferramentas foram mais propensas a responder a solicitações que pediam imagens retratando situações de fraude eleitoral, como cédulas de votação descartadas, em vez de solicitações relacionadas a figuras políticas como Biden ou o ex-presidente dos Estados Unidos, Donald Trump.

Os resultados indicaram que o Midjourney teve o pior desempenho, gerando imagens enganosas em 65% dos testes, enquanto o ChatGPT Plus e o Image Creator conseguiram bloquear com sucesso solicitações relacionadas a candidatos políticos.

Essas imagens, criadas a partir de prompts de texto, poderiam ser utilizadas como “provas fotográficas”, contribuindo para a propagação de informações falsas e representando um desafio significativo para a integridade das eleições, alertaram os pesquisadores.

O estudo aponta que, embora as empresas tenham políticas contra a criação de conteúdo enganoso, as ferramentas de IA ainda são suscetíveis a prompts que solicitam imagens retratando fraudes eleitorais. Além disso, o relatório destaca que algumas das imagens geradas pelo Midjourney já circulam publicamente, e que há evidências de que pessoas já estejam as usando para fins de desinformação.

David Holz, fundador do Midjourney, informou à Reuters por e-mail que estão previstas atualizações específicas relacionadas à próxima eleição nos EUA. Ele também esclareceu que as imagens criadas no ano passado não refletem as práticas atuais de moderação do laboratório de pesquisa. Além disso, um representante da Stability AI informou que a startup atualizou suas políticas na última sexta-feira para proibir explicitamente a promoção de fraude ou desinformação.

Enquanto isso, um porta-voz da OpenAI afirmou que a empresa está empenhada em prevenir o abuso de suas ferramentas. A Microsoft não forneceu uma resposta ao pedido de comentário da Reuters sobre o assunto.

*Com informações da Reuters

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Redação

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.