Partilha

Resumo

  • Um vídeo sobre “liberdade de expressão”, um post crítico da imigração, um artigo a questionar a pandemia.
  • Estudos do Mozilla Foundation, do Center for Humane Technology e do Instituto Reuters mostram que este padrão de radicalização algorítmica afecta sobretudo temas como imigração, género, saúde, clima e política.
  • Jovens em particular são vulneráveis, já que o algoritmo aprende os seus hábitos num momento de construção identitária — e molda-os sem que percebam.

Tudo começa com um clique inocente. Um vídeo sobre “liberdade de expressão”, um post crítico da imigração, um artigo a questionar a pandemia. De conteúdo em conteúdo, a radicalização vai-se insinuando — discreta, sugerida, automatizada. Chamam-lhe buraco de coelho algorítmico: um percurso descendente em que as plataformas digitais, ao recomendarem mais do mesmo (mas um pouco mais extremo), conduzem o utilizador para nichos cada vez mais radicais. O fenómeno está documentado desde 2018. E continua activo — silencioso, mas eficaz.

Como funciona a espiral?

Os algoritmos de recomendação de plataformas como YouTube, TikTok ou Facebook foram desenhados para maximizar o tempo de permanência. O que gera mais atenção é promovido; o que gera desinteresse, afunda. Se alguém clica num vídeo anti-sistema, é provável que o seguinte traga uma dose maior de indignação. E depois outra. E outra ainda.

É uma lógica de auto-reforço:

  • Cliques passadossuposição de interesse
  • Recomendações futurasconfirmação do viés
  • Isolamento progressivoradicalização comportamental

Tudo isto sem qualquer contacto com perspectivas opostas, sem contraditório, sem contexto.

O efeito: polarização, raiva, manipulação

Estudos do Mozilla Foundation, do Center for Humane Technology e do Instituto Reuters mostram que este padrão de radicalização algorítmica afecta sobretudo temas como imigração, género, saúde, clima e política. Jovens em particular são vulneráveis, já que o algoritmo aprende os seus hábitos num momento de construção identitária — e molda-os sem que percebam.

E não se trata apenas de conteúdos ilegais ou de ódio explícito. Muitas vezes, o extremismo instala-se por acumulação de conteúdos enviesados, sensacionalistas ou distorcidos. Ao fim de semanas de exposição contínua, o utilizador acredita estar bem informado — quando, na verdade, caiu num túnel ideológico.

Casos reais: do digital ao mundo físico

  • Jovens que começaram por ver vídeos de autoajuda e acabaram a consumir discursos incel.
  • Internautas atraídos por críticas à “cultura woke” que, meses depois, aderem a narrativas conspirativas ou supremacistas.
  • Pais que pesquisavam sobre vacinas e, em poucos dias, mergulham em comunidades negacionistas.

A radicalização, nestes casos, não veio de um influencer carismático. Veio da máquina invisível das recomendações automáticas.

Por que é tão difícil travar o ciclo?

Porque o algoritmo não tem ética — só optimização. Não distingue o verdadeiro do falso, o construtivo do nocivo. Só mede atenção. E atenção viciada em indignação, medo ou raiva gera lucro. Para as plataformas, esse é o objectivo final.

Além disso, o buraco de coelho é invisível. Cada percurso é individual, difícil de mapear, quase impossível de regular — até ser tarde demais.

Como sair do buraco?

  1. Transparência algorítmica — As plataformas devem permitir auditorias independentes aos sistemas de recomendação e explicar como priorizam conteúdos.
  2. Opção clara por feed cronológico — Dar aos utilizadores controlo real sobre o que veem e porquê.
  3. Sinalização de percursos radicais — Alertas visuais quando um padrão de visualização se torna enviesado ou extremo.
  4. Educação crítica para algoritmos — Ensinar desde cedo como funcionam estas lógicas, para que cada um reconheça o seu próprio percurso de influência.

Radicalizar não é convencer — é isolar

O buraco de coelho algorítmico não impõe ideias. Mas empurra, isola, acelera. E uma democracia saudável não se constrói com cidadãos enredados em túneis de confirmação.

A tecnologia pode servir o esclarecimento — mas só se a quisermos para isso. E só se estivermos atentos ao que nos mostra… e ao que nos esconde.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

“Economia do Genocídio: As Empresas por Trás da Guerra em Gaza”

Partilha
A guerra precisa de armas — mas também de software, dados, logística, investimento, vigilância, construção, telecomunicações, cloud computing. O relatório da relatora especial da ONU, Francesca Albanese, publicado em Março de 2025, vai mais longe do que qualquer outro documento oficial: descreve, em detalhe, uma teia económica que sustenta a campanha militar israelita contra Gaza. Um sistema que mistura empresas de defesa, gigantes tecnológicas e construtoras civis — todas elas, segundo Albanese, beneficiárias ou facilitadoras de um contexto de apartheid e genocídio.

Ein Samiya — ataque à água deixa 100 000 palestinianos sem abastecimento

Partilha
Partilha Resumo A Organização das Nações Unidas confirma que 100 000 pessoas…

Vídeos falsos de guerra: Quando Israel usou imagens de jogos e refugiados moldavos para manipular a narrativa

Partilha
Partilha Resumo Em dois episódios documentados entre Outubro e Dezembro de 2023,…

Patologia da Verdade: A Desinformação como Determinante Politico de Saúde Mental e Erosão da Coesão Social — Revisão Narrativa (2010–2026)

Partilha
Partilha Resumo Revisão narrativa interdisciplinar baseada em síntese de literatura em psicologia…