Notícias

OpenAI enfrenta novas queixas de privacidade na UE

A OpenAI encontra-se novamente no centro das atenções devido a preocupações crescentes com a privacidade na União Europeia. A empresa está enfrentando queixas apresentadas por uma organização de direitos de privacidade, noyb, em nome de indivíduos que alegam que o ChatGPT gerou informações falsas sobre eles.

Diante dessas queixas e do risco de multas substanciais por não conformidade com as regulamentações locais, a OpenAI enfrenta um desafio significativo para conciliar sua inovação tecnológica com as rigorosas regulamentações de privacidade da região.

Leia também: Medidas antitruste: Microsoft permite compra do pacote Office sem o Teams

A OpenAI já havia sido alvo de uma intervenção das autoridades italianas de proteção de dados em 2023, quando o ChatGPT foi temporariamente suspenso devido a questões semelhantes. Agora, a empresa enfrenta novas queixas na Áustria e na Polônia, aumentando a pressão para que ela se ajuste às leis de privacidade da UE.

O caso mais recente ocorreu a partir da queixa de uma pessoa descrita pela noyb como “figura pública”, na Áustria. A reclamação gira em torno do fato de que o ChatGPT gerou uma data de nascimento incorreta para essa pessoa, levantando, novamente, preocupações sobre a precisão dos dados produzidos pelo ChatGPT e sua conformidade com as leis de proteção de dados da UE.

A questão central levantada pelas queixas é a violação das disposições do Regulamento Geral de Proteção de Dados (GDPR) da UE, que estabelece direitos rigorosos para os cidadãos em relação ao processamento de seus dados pessoais.

Neste caso, a noyb argumenta que a OpenAI não está cumprindo essa obrigação em relação ao seu chatbot, alegando que a empresa rejeitou uma solicitação de acesso ao sujeito (SAR), conforme a regulação, feita pela noyb em nome de um reclamante. A organização argumenta que a empresa falhou em divulgar informações sobre os dados processados pelo ChatGPT, violando os direitos estabelecidos pelo regulamento.

A OpenAI argumentou que era tecnicamente impossível corrigir o erro e ofereceu filtrar ou bloquear informações específicas. Embora a política de privacidade da OpenAI permita correções, ela ressalta a complexidade técnica dos modelos, sugerindo aos usuários que solicitem a remoção completa de suas informações pessoais em casos em que a correção não é viável.

“Inventar informações falsas é bastante problemático por si só. Mas quando se trata de informações falsas sobre indivíduos, pode haver sérias consequências. Está claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a lei da UE ao processar dados sobre indivíduos. Se um sistema não pode produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, não o contrário”, disse Maartje de Graaf, advogada de proteção de dados da noyb.

Na Polônia, o caso envolve uma investigação aberta pela autoridade local de proteção de dados também em relação ao ChatGPT. A investigação foi iniciada após a queixa de um pesquisador de privacidade e segurança, que afirmou não conseguir corrigir informações incorretas sobre ele geradas pela OpenAI.

Além da questão da correção de informações imprecisas, as queixas também levantam preocupações sobre a transparência no processamento de dados pessoais pelo ChatGPT. As autoridades de proteção de dados argumentam que a OpenAI não está fornecendo informações adequadas sobre a origem dos dados e como eles são armazenados e utilizados pelo chatbot.

*Com informações do TechCrunch

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

SAP detalha medidas de suporte em meio à crise climática no Rio Grande do Sul

A recente tragédia climática que atingiu o Rio Grande do Sul mobilizou diversas empresas da…

5 horas ago

10 cursos gratuitos da IBM no Eu Capacito

A plataforma Eu Capacito, iniciativa do Instituto Itaqui, acaba de incluir cursos gratuitos da IBM em…

6 horas ago

ICQ sairá do ar após 28 anos

O ICQ anunciou o fim de suas atividades para o próximo dia 25 de junho.…

8 horas ago

Integrity Forum 2024: o futuro das empresas em meio a IA responsável

O Integrity Forum 2024, realizado pela Quality Digital em parceria com a Diligent trouxe à tona discussões sobre…

11 horas ago

Metade das organizações não tem programas de segurança para ambientes OT

Quase metade das organizações globais (49%) ainda não tem programas de segurança cibernética e de…

12 horas ago

Escolas públicas brasileiras estão mais conectadas, mas uso em sala patina

A qualidade das conexões de internet nas escolas públicas brasileiras avançou, mas o uso pedagógico…

13 horas ago