A escalada da insensatez nas redes sociais

Plataformas precisam abandonar sua apatia diante do discurso de ódio para evitar medidas mais drásticas, como banimento

Author Photo
9:30 am - 17 de abril de 2023
Elon Musk, CEO do Twitter, que relaxou o controle de conteúdo quando comprou a rede social - Foto: Daniel Oberhaus / Creative Commons Elon Musk, CEO do Twitter, que relaxou o controle de conteúdo quando comprou a rede social - Foto: Daniel Oberhaus / Creative Commons

Na última semana, um dos debates mais intensos no país foi a apuração da culpa das redes sociais no crescimento de ataques em escolas. Se já não bastasse a incredulidade diante de alunos e professores brutalmente assassinados, o posicionamento do Twitter em uma reunião de representantes das principais plataformas com o ministro da Justiça na terça provocou revolta. Entretanto, apesar daquela pavorosa declaração, precisamos olhar o problema sem simplificações.

Especialistas de educação e de saúde mental afirmam que a explosão de conteúdo nas redes sociais que menciona e até glorifica esses crimes serve como catalisador para novos atentados. Neste mesmo espaço, destrinchei o tema na semana passada. Mas como expliquei, apesar da contribuição dessas publicações para esses crimes, eles não podem ser atribuídos apenas a isso.

Ao longo da semana, conversei com profissionais de diferentes áreas sobre o caso. É um consenso que as redes sociais fazem muito menos do que poderiam e deveriam para o combate a esses crimes, como quando o Twitter disse naquela reunião que fotos de assassinos e de vítimas em posts não violariam as regras da rede ou sequer seriam apologia a crimes.

Muitos afirmam que retirar esse ou qualquer outro conteúdo seria censura. Alguns vão além e sugerem que esse movimento encobriria o interesse de um governo que, na verdade, estaria usando essa comoção para controlar a mídia.

São argumentos fortes, e eu até concordaria com isso, se as redes sociais fossem meios de comunicação tradicionais. Mas elas não são: sua gigantesca capacidade de nos convencer de qualquer coisa concentra o núcleo dessa discussão.


Veja esse artigo em vídeo:


Houve uma época em que eu era muito mais liberal sobre o que poderia ser publicado nas redes sociais. Eu as via como ferramentas que garantiam uma liberdade inédita ao cidadão para expor ideias em pé de igualdade com veículo de comunicação. Em 2015, cheguei a discordar publicamente do escritor e filósofo italiano Umberto Eco, quando ele disse que as redes sociais haviam dado voz a uma “legião de imbecis”, e que “o drama da Internet é que ela promoveu o idiota da aldeia a portador da verdade.”

Quando alguém argumentava que essas plataformas deveriam ter alguma responsabilidade sobre o que seus usuários publicavam nelas, eu comparava isso com culpar o fabricante de um carro se ele fosse usado em um assalto a banco. Porém, à medida que fui estudando mais os algoritmos das redes sociais, fui percebendo que essa analogia era muito errada. Se os carros fossem como redes sociais, eles eventualmente convenceriam seus donos a roubar o banco!

A minha “fase mais liberal” com as redes sociais vinha do fato de usar essas plataformas desde suas primeiras aparições, como o Friendster e o Orkut, há cerca de duas décadas. Elas eram quase pueris, feitas para encontrar velhos amigos e conhecer gente nova. Todo mundo “brincava” ali, sem ofensas, sem medo, sem ódio.

E tudo isso porque tampouco existiam algoritmos de relevância, popularizados pelo Facebook em 2014. São eles que escolhem o que seus bilhões de usuários veem nas redes. Mais que isso, para que as pessoas se sintam “confortáveis”, exibem apenas conteúdos de que elas gostem, prendendo cada um de nós nas infames “bolhas”.

Ao fazer isso, as redes sociais se transformaram nas ferramentas perfeitas de convencimento de qualquer coisa, até mesmo para se cometer um crime bárbaro.

É nessa hora que “o carro pode induzir seu dono a roubar o banco”.

 

A responsabilidade de cada um

As redes sociais estão na berlinda. Diante de sua apatia, o governo quer que as empresas criem canais para rápida remoção de conteúdo ligado a esses crimes, e ameaça com multas e até bloqueios a quem não colaborar.

“O governo tem na lei os limites aos quais suas ações podem chegar, e não pode haver liberdade para multar ou banir sem a devida previsão legal”, explica Márcio Chaves, sócio da área de Direito Digital do Almeida Advogados. No caso brasileiro, há o Marco Civil da Internet, que prevê que uma plataforma digital seja responsabilizada por um conteúdo apenas se não o remover após uma ordem judicial. “Esse limite foi imposto justamente para evitar a censura prévia e não jogar para o provedor essa obrigação”, acrescenta.

Mas Chaves acredita que a legislação dificilmente dará conta de todas as situações em que a segurança da sociedade seja ameaçada por uma suposta “liberdade de expressão”. Segundo ele, “por isso é tão importante estimular um ambiente não de imposição, mas de cooperação entre as empresas e a administração pública, no qual ferramentas tecnológicas, conselhos de supervisão, e autoridades judiciais possam endereçar situações sensíveis como a que estamos passando agora com os ataques nas escolas, em uma velocidade mais compatível com a que estamos sujeitos com o uso das tecnologias digitais”.

O debate sobre mais responsabilidade para as redes sociais acontece há alguns anos no Brasil. Ele está, por exemplo, no Projeto de Lei conhecido como “PL das Fake News” e em sugestões de atualização do Marco Civil da Internet. No geral, pede-se que essas plataformas sejam mais atuantes e efetivas na identificação de discurso de ódio, desinformação e outros crimes em suas páginas, removendo esse conteúdo sem necessidade de uma ordem judicial, mesmo não sendo obrigadas a isso.

O grande risco é se criar uma espécie de “censura algorítmica”, com essas plataformas eliminando equivocadamente conteúdos legítimos. É verdade que a tecnologia para essas identificações vem progredindo a passos largos, inclusive com o apoio da inteligência artificial, mas ela ainda não é garantida.

Precisamos encontrar mecanismos eficientes para coibir a escalada de crimes incentivados nas redes sociais, sem criar outros problemas. O que não pode acontecer é uma empresa não remover um conteúdo de ódio “porque não violaria seus Termos de Uso”, como disse o Twitter. Chaves lembra que eles “são contratos entre a plataforma e o usuário, e só há liberdade contratual se não for contrária à lei”.

Sobra o temor de o governo usar isso para controlar a mídia. Todos governantes desejam isso, em alguma escala. Antes se restringia à imprensa, mas ela, ainda que independente, obedece a leis. Além disso, o jornalismo profissional segue um Código de Ética, que faz com que sua produção, ainda que às vezes falha, tenha um mínimo de qualidade. Já as redes sociais parecem ser guiadas apenas pelos seus interesses.

Por fim, isso não pode virar uma discussão político-partidária, como muitos já têm feito. Tampouco há espaço para deixar tudo como está, pois o discurso de ódio nas redes agrava o problema de fato. Essas empresas devem abandonar sua complacência, para evitar medidas mais drásticas. E a sociedade precisa ficar vigilante para que nenhum governo use o pânico para controlar qualquer mídia.

 

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.