Resumo
- A Meta, empresa-mãe do Facebook e Instagram, atendeu a 94% das solicitações de remoção de conteúdo feitas por autoridades israelitas entre 2023 e 2024.
- Os números, compilados por organizações de direitos digitais, revelam um nível de conformidade raramente visto noutras plataformas e levantam dúvidas sobre a neutralidade da Big Tech na gestão de conteúdos sobre conflitos.
- De acordo com a ONG SMEX, a maioria dos pedidos referia-se a publicações pró-Palestina, desde vídeos que denunciavam bombardeamentos a textos de ativistas relatando detenções na Cisjordânia.
A Meta, empresa-mãe do Facebook e Instagram, atendeu a 94% das solicitações de remoção de conteúdo feitas por autoridades israelitas entre 2023 e 2024. Os números, compilados por organizações de direitos digitais, revelam um nível de conformidade raramente visto noutras plataformas e levantam dúvidas sobre a neutralidade da Big Tech na gestão de conteúdos sobre conflitos.
De acordo com a ONG SMEX, a maioria dos pedidos referia-se a publicações pró-Palestina, desde vídeos que denunciavam bombardeamentos a textos de ativistas relatando detenções na Cisjordânia. No total, milhões de publicações e contas foram afetadas, muitas vezes sem aviso prévio ou possibilidade de recurso.
O padrão oculto de moderação
Documentos internos analisados por jornalistas independentes mostram que o sistema de triagem da Meta classifica como “de alto risco” conteúdos ligados a Israel, desencadeando revisões aceleradas e remoções automáticas. Para a investigadora Mona Shtaya, do Tahrir Institute for Middle East Policy, “o problema não é a censura isolada, mas o efeito acumulado: ao eliminar sistematicamente vozes palestinianas, a Meta molda a narrativa global.”
A empresa alega seguir os Padrões da Comunidade e legislações nacionais, mas não explica com clareza os critérios usados para priorizar certos governos.
Silenciamento e efeito dissuasor
Para criadores de conteúdo pró-Palestina, a consequência vai além da exclusão de posts. Muitos relatam a redução súbita de alcance — o chamado shadow banning — que limita a visibilidade sem notificação formal. Tal prática leva a autocensura: usuários evitam palavras, imagens ou hashtags para não perderem o contacto com o público.
“Passamos horas a preparar um vídeo factual, com provas visuais, e ele desaparece minutos depois de publicado. É como gritar para um muro”, lamenta a ativista digital Hanan Awad.
Comparações e contexto
Enquanto Israel regista uma taxa de cumprimento de 94%, pedidos da Turquia foram atendidos em 51% e da Índia em 61%. A discrepância alimenta acusações de parcialidade e aplicação desigual das regras. A Human Rights Watch alerta que “aceitar quase todos os pedidos de um Estado sem transparência é uma ameaça direta à liberdade de expressão online”.
O desafio da transparência
O debate sobre a Meta intensifica-se num contexto de exigência por auditorias independentes. Governos querem mais controlo sobre o discurso online, enquanto ativistas exigem proteção contra abusos.
“Não se trata apenas de moderar conteúdos nocivos”, afirma Marietje Schaake, especialista em regulação de plataformas. “Trata-se de quem decide o que é nocivo — e com que legitimidade.”
Com a guerra de narrativas a escalar no espaço digital, a Meta enfrenta uma escolha crítica: continuar a privilegiar relações estatais ou abrir-se ao escrutínio público. A decisão pode definir se será vista como guardiã da liberdade ou como cúmplice de censura.