Sem filtrar barbáries, X promove extremistas que invadiram Israel

Rede de Elon Musk (ex-Twitter) elimina moderação de conteúdo e dá vexame histórico ao permitir que extremistas façam propaganda

Faixa de Gaza
Destruição no bairro de Al-Rimal, no centro da Faixa de Gaza
Copyright reprodução/X @ragipsoylu - 10.out.2023

A barbárie da guerra é o mais duro dos testes de mídia. São nesses momentos trágicos que você sabe se um jornal, emissora de TV ou rede social é sério ou picareta. O X, nome do finado Twitter, falhou miseravelmente depois do ataque do Hamas contra Israel.

No 1º dia dos ataques, no sábado (7.out.2023), a rede de Elon Musk foi inundada por 2 tipos de conteúdo:

  • cenas da Ucrânia e até de videogames classificados como “a guerra contra Israel”; e
  • imagens de cabeças cortadas, de crianças baleadas na frente dos pais e de violência sexual.

As primeiras são de autoria dos profissionais de fake news que tomaram a rede de Musk. As segundas foram distribuídas como se fossem notícias, e não propaganda de guerra, pelos profissionais de rede social do Hamas, o grupo extremista que fez os atentados e sequestros.

Os 2 gêneros de imagem não poderiam circular segundo o próprio estatuto do X. Elas violam o artigo que veta imagens que incitem à violência. O fato é que o X, tanto faz se involuntariamente ou não, se tornou sócia do terror ao permitir que essas imagens chocantes circulem pelos seus canais. Porque imagens gráficas de violência só servem para fazer propaganda de quem quer espalhar o terror.

Eu seria estúpido e blasé se dissesse que é fácil controlar esse tipo de informação em tempos de guerra. Não é. O melhor exemplo que conheço foi a inundação de imagens violentas no TikTok logo depois da invasão russa na Ucrânia. Durou dias, mas o TikTok conseguiu expurgar esses vídeos porque tem uma política de mediação de conteúdos.

O Facebook também foi usado pelos extremistas do Hamas, mas conseguiu reduzir o número de informações falsas. Por que isso não ocorre no X? Odeio fulanizar questões que podem ter “n” fatores, mas a culpa nesse caso é inteiramente de Musk.

O bilionário comprou o Twitter em outubro de 2022 com a promessa de remover freios e contrapesos. O resultado foi uma avalanche de discursos de ódio e notícias falsas. Musk dobrou a aposta: acabou com o departamento que cuidava da mediação de conteúdos. O Twitter virou o esgoto das redes sociais. O pior do mundo passa por ali, sem qualquer filtro.

O ataque do Hamas mostrou algo ainda pior: o X removeu todos os programas que usava para impedir que um mesmo conteúdo falso fosse replicado em centenas de contas, segundo o The Information, o melhor jornal digital do Vale do Silício. Esse tipo de ferramenta é essencial para extirpar campanhas coordenadas de desinformação.

Musk chegou a postar no domingo (8.out.2023) que você deveria seguir a conta The War Monitor: “era bom para acompanhar a guerra em tempo real”. Ele tem 159 milhões de seguidores e, em 3 horas, esse post foi visto por 11 milhões. O The War Monitor chamou os palestinos que atacaram Israel de mártires e tem um vasto acervo de mentiras no X. Bombardeado por alguns seguidores, Musk apagou o post depois de 3 horas.

Não foi o único vexame. Contas com o selo azul de verificação, que deveriam ser confiáveis em tese, divulgaram notícias propositalmente falsas sobre a guerra. Uma dessas contas publicou a informação de que o atacante português Cristiano Ronaldo apoiava a Palestina e já entrou em campo com uma bandeira do território.

Claro que era mentira. O jogador que aparecia em campo com a bandeira era o marroquino Jawad El Yamiq, que entrou em campo na Copa do Mundo de 2022 com o símbolo palestino. Sites de notícias de Doha divulgaram a mesma mentira no Facebook.

Diante do tsunami de críticas, o X fez o que faz sempre que é apanhado em situações vexaminosas: pediu que a comunidade da rede informasse o que é falso ou verdadeiro nas informações sobre a guerra. Se fosse uma ONG pedindo ajuda, eu até entenderia. Mas não o homem mais rico do mundo.

Uma ONG americana que combate o discurso de ódio, o Center for Countering Digital Hate, diz que é óbvio que o público tem de ajudar a conter informações falsas, mas essa missão tem que começar pela plataforma. Segundo Imran Ahmed, chefe-executivo da ONG, cabe às plataformas como o X criar um ambiente seguro para o público e não permitir que sua base seja usada “para amplificar desinformação e ódio, distorcendo as lentes por meio das quais muitas pessoas veem o mundo”, sobretudo em tempos de guerra.

O Centro foi processado por Musk depois de fazer e divulgar uma pesquisa segundo a qual o discurso de ódio no Twitter teria aumentado depois de o bilionário ter comprado a rede, em outubro de 2022.

autores