Partilha

Resumo

  • Um vídeo sobre “liberdade de expressão”, um post crítico da imigração, um artigo a questionar a pandemia.
  • Estudos do Mozilla Foundation, do Center for Humane Technology e do Instituto Reuters mostram que este padrão de radicalização algorítmica afecta sobretudo temas como imigração, género, saúde, clima e política.
  • Jovens em particular são vulneráveis, já que o algoritmo aprende os seus hábitos num momento de construção identitária — e molda-os sem que percebam.

Tudo começa com um clique inocente. Um vídeo sobre “liberdade de expressão”, um post crítico da imigração, um artigo a questionar a pandemia. De conteúdo em conteúdo, a radicalização vai-se insinuando — discreta, sugerida, automatizada. Chamam-lhe buraco de coelho algorítmico: um percurso descendente em que as plataformas digitais, ao recomendarem mais do mesmo (mas um pouco mais extremo), conduzem o utilizador para nichos cada vez mais radicais. O fenómeno está documentado desde 2018. E continua activo — silencioso, mas eficaz.

Como funciona a espiral?

Os algoritmos de recomendação de plataformas como YouTube, TikTok ou Facebook foram desenhados para maximizar o tempo de permanência. O que gera mais atenção é promovido; o que gera desinteresse, afunda. Se alguém clica num vídeo anti-sistema, é provável que o seguinte traga uma dose maior de indignação. E depois outra. E outra ainda.

É uma lógica de auto-reforço:

  • Cliques passadossuposição de interesse
  • Recomendações futurasconfirmação do viés
  • Isolamento progressivoradicalização comportamental

Tudo isto sem qualquer contacto com perspectivas opostas, sem contraditório, sem contexto.

O efeito: polarização, raiva, manipulação

Estudos do Mozilla Foundation, do Center for Humane Technology e do Instituto Reuters mostram que este padrão de radicalização algorítmica afecta sobretudo temas como imigração, género, saúde, clima e política. Jovens em particular são vulneráveis, já que o algoritmo aprende os seus hábitos num momento de construção identitária — e molda-os sem que percebam.

E não se trata apenas de conteúdos ilegais ou de ódio explícito. Muitas vezes, o extremismo instala-se por acumulação de conteúdos enviesados, sensacionalistas ou distorcidos. Ao fim de semanas de exposição contínua, o utilizador acredita estar bem informado — quando, na verdade, caiu num túnel ideológico.

Casos reais: do digital ao mundo físico

  • Jovens que começaram por ver vídeos de autoajuda e acabaram a consumir discursos incel.
  • Internautas atraídos por críticas à “cultura woke” que, meses depois, aderem a narrativas conspirativas ou supremacistas.
  • Pais que pesquisavam sobre vacinas e, em poucos dias, mergulham em comunidades negacionistas.

A radicalização, nestes casos, não veio de um influencer carismático. Veio da máquina invisível das recomendações automáticas.

Por que é tão difícil travar o ciclo?

Porque o algoritmo não tem ética — só optimização. Não distingue o verdadeiro do falso, o construtivo do nocivo. Só mede atenção. E atenção viciada em indignação, medo ou raiva gera lucro. Para as plataformas, esse é o objectivo final.

Além disso, o buraco de coelho é invisível. Cada percurso é individual, difícil de mapear, quase impossível de regular — até ser tarde demais.

Como sair do buraco?

  1. Transparência algorítmica — As plataformas devem permitir auditorias independentes aos sistemas de recomendação e explicar como priorizam conteúdos.
  2. Opção clara por feed cronológico — Dar aos utilizadores controlo real sobre o que veem e porquê.
  3. Sinalização de percursos radicais — Alertas visuais quando um padrão de visualização se torna enviesado ou extremo.
  4. Educação crítica para algoritmos — Ensinar desde cedo como funcionam estas lógicas, para que cada um reconheça o seu próprio percurso de influência.

Radicalizar não é convencer — é isolar

O buraco de coelho algorítmico não impõe ideias. Mas empurra, isola, acelera. E uma democracia saudável não se constrói com cidadãos enredados em túneis de confirmação.

A tecnologia pode servir o esclarecimento — mas só se a quisermos para isso. E só se estivermos atentos ao que nos mostra… e ao que nos esconde.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

You May Also Like

“Ressentimento” ou “protesto”? Quem vota Chega — e porquê

Partilha
O Chega consolidou-se como a terceira força política portuguesa nas legislativas de 2025, alcançando 18% dos votos e presença em todos os círculos eleitorais. Mas quem são, afinal, os eleitores do partido liderado por André Ventura? Votam movidos por ressentimento social e cultural ou por puro protesto contra o sistema político?

Terapias de conversão: o mercado por trás dos retiros e “programas”

Partilha
Partilha Resumo Em 2024, Portugal criminalizou atos dirigidos a alterar ou reprimir…

 Fé em Rutura: Quando Deus Não Cabe no Palanque

Partilha
Partilha Resumo Lisboa, 19 de Julho de 2025 – A religião tem sido,…

Extrema-direita em Portugal: Estará a Pátria em risco?

Partilha
Partilha Resumo Lisboa, 19 jul 2025 – O avanço de grupos de…